![]() |
ИСТИНА |
Войти в систему Регистрация |
ИСТИНА ИНХС РАН |
||
Расширение сферы применения искусственного интеллекта (далее ИИ) на сегодняшний момент идет очень высокими темпами. С 2010-х гг. мы наблюдаем быстрый рост производительности, который связан с прогрессом одного из типов ИИ, а именно с революцией нейронных сетей. При этом становится все больше реальных примеров использования технологий ИИ, которые приводят к неоднозначным этическим последствиям как для отдельного человека, так и для общества. Целый ряд социально-гуманитарных рисков связан с непрозрачностью принятия решений системами ИИ, невозможностью определения субъекта ответственности, несправедливостью и предвзятостью алгоритмов, неравенством в распределении благ и доступности технологий, влиянием на автономность человека в принятии решений, влиянием на сферу занятости, конфиденциальность, область межличностного общения. Использование ИИ ведет также к рискам для безопасности человека, угрозе вторжения в частную жизнь, угрозе человеческого достоинства. Решение проблем внедрения систем ИИ многие связывают со стремительно развивающимися этико-правовыми стандартами в данной области, однако, сам этот подход не лишен слабых сторон. Л.Флориди обращает внимание на следующие риски для этики «регулирующих принципов»: «покупка» этики (digital ethics shopping), лоббирование этических принципов (digital ethics lobbying), этический демпинг (ethics dumping), уклонение от этики (ethics shirking). Отсутствие механизмов перехода с теоретического уровня к решению конкретных практических задач – наиболее слабая сторона этого подхода. Более практико-ориентированный подход к этическим вопросам технологий предлагает метод анализа конкретных кейсов. Некоторые принципы, например, право человека оспорить решение ИИ, являясь базовым в этических стандартах, не является универсальным для всех случаев применения ИИ. Могут быть ситуации, когда он оказывается излишним на практике, когда технологии не оказывают существенного влияния на жизнь человека или носят рекомендательный характер. Одновременно нам уже приходилось сталкиваться с ситуациями, когда такой пересмотр является желательным. Конкретизация этических вопросов, понимание специфики использования технологий ИИ в социально-значимых сферах (медицина, образование, правосудие), повышение информированности пользователей ведет к более эффективному и безопасному внедрению этой технологии.