Заведующий кафедрой этики Санкт-Петербургского государственного университета Вадим Перов выступил в университетском подкасте «Генрих Терагерц» с анализом критических проблем в области этики искусственного интеллекта. Особое внимание было уделено феномену «галлюцинаций» языковых моделей и их потенциальному влиянию на принятие решений в различных сферах — от медицинской диагностики до биржевой торговли.
В ходе дискуссии эксперт представил ряд показательных примеров этических дилемм в работе ИИ-систем. Среди них — случай с алгоритмом распознавания опухолей, который ошибочно идентифицировал присутствие измерительной линейки как ключевой маркер заболевания, а также ситуация с чат-ботом Microsoft Tay, продемонстрировавшим неспособность ИИ к этической фильтрации данных из открытых источников.
По мнению Вадима Перова, принципиальное различие между искусственным и человеческим интеллектом заключается в неспособности ИИ к подлинному пониманию этических норм и контекста. «Искусственный интеллект подобен искусственным цветам — как бы он ни был похож на интеллект настоящий, он им никогда не станет», — подчеркнул ученый, акцентируя внимание на том, что роль ИИ следует рассматривать как вспомогательную в решении рутинных задач, а не как замену человеческому фактору в принятии этически значимых решений.
Для Центра искусственного интеллекта СПбГУ данная дискуссия представляет особый интерес в контексте разработки этических принципов применения ИИ в научных исследованиях. Мы проводим цикл научных семинаров, посвященных, в том числе, этическим аспектам искусственного интеллекта.
В ходе дискуссии эксперт представил ряд показательных примеров этических дилемм в работе ИИ-систем. Среди них — случай с алгоритмом распознавания опухолей, который ошибочно идентифицировал присутствие измерительной линейки как ключевой маркер заболевания, а также ситуация с чат-ботом Microsoft Tay, продемонстрировавшим неспособность ИИ к этической фильтрации данных из открытых источников.
По мнению Вадима Перова, принципиальное различие между искусственным и человеческим интеллектом заключается в неспособности ИИ к подлинному пониманию этических норм и контекста. «Искусственный интеллект подобен искусственным цветам — как бы он ни был похож на интеллект настоящий, он им никогда не станет», — подчеркнул ученый, акцентируя внимание на том, что роль ИИ следует рассматривать как вспомогательную в решении рутинных задач, а не как замену человеческому фактору в принятии этически значимых решений.
Для Центра искусственного интеллекта СПбГУ данная дискуссия представляет особый интерес в контексте разработки этических принципов применения ИИ в научных исследованиях. Мы проводим цикл научных семинаров, посвященных, в том числе, этическим аспектам искусственного интеллекта.
Полную новость читайте на официальном сайте СПбГУ.