Широкий обзор

Искусственный интеллект: этические проблемы

Искусственный интеллект (ИИ) может использоваться для повышения эффективности таких дискриминационных мер, как расовое профилирование, прогнозирование поведения и даже определение сексуальной ориентации людей. Возникающие при этом вопросы этического свойства требуют выработки законодательства, способного обеспечить ответственный подход к развитию технологий ИИ.

Марк-Антуан Дилак отвечает на вопросы Режиса Мейрана

 

С какими проблемами связано использование программного обеспечения для анализа поведения людей по видеозаписям?

ИИ позволяет более эффективно использовать системы видеонаблюдения в общественных местах в целях профилактики. Видеозаписи непрерывно анализируются специальными программами, которые фиксируют агрессивные действия и могут быстро поднять тревогу. Подобная система сейчас тестируется в переходах станции Шатле парижского метрополитена. Если такой подход к видеонаблюдению будет одобрен, единственной проблемой использования ИИ остается риск ошибки. Однако он не слишком высок, поскольку решение относительно того, требует ли ситуация вмешательства или нет, будут принимать люди.

Тем не менее, вероятность ошибки при распознавании лиц высока. Достаточно небольшой помехи при передаче изображения, и вместо лица ИИ может увидеть тостер! Особую тревогу может вызвать ощущение, что вы постоянно находитесь под наблюдением, а также рост числа ошибок.

Еще одним поводом для беспокойства является то, что использование интеллектуальных систем и методов расового и социального профилирования может вести к злоупотреблениям.

О каких злоупотреблениях идет речь?

Я имею в виду применяемые в некоторых странах программы распознавания лиц для выявления «террористического» или «криминального» поведения. То есть по лицу человека определяется его внутренняя склонность к преступлению!

Обеспокоенные этим возрождением физиогномики, Михаль Косински (Michal Kosinski) и Илунь Ван (Yilun Wang) из Стэнфордского университета (США) сочли необходимым продемонстрировать опасность этой, как казалось, оставшейся в прошлом псевдонаучной теории, состоявшей в изучении характера человека по особенностям и выражению его лица. Желая привлечь внимание к риску вторжения в личную жизнь, они в 2017 году создали программу «гейдар», определяющую гомосексуальность людей по их фотографиям! По заявлению авторов, погрешность программы составляет всего 20%. Применение этой технологии не только стигматизировало бы человека, но и нарушало бы его право не раскрывать свою сексуальную ориентацию.

Научное исследование, не опирающееся на философию и лишенное социологических или юридических ориентиров, чревато этическими проблемами. Те немногие примеры, которые я привел, говорят о необходимости заключить исследования в области ИИ в рамки этики.

А как насчет эксцессов евгенического характера?

На мой взгляд, ИИ априори не является фактором поощрения евгеники. Некоторые утверждают, что однажды человека можно будет усовершенствовать за счет использования ИИ – например, путем вживления чипов, увеличивающих память или улучшающих узнавание лиц и т. п. И если «умная» робототехника может дать нам медицинские решения проблем инвалидности (скажем, возвращение подвижности с помощью сложных протезов), то  трансгуманистическая гипотеза о создании постчеловека лежит в области научной фантастики.

 

Марк-Антуан Дилак

Адъюнкт-профессор этики и политической философии Монреальского университета Марк-Антуан Дилак (Франция) руководит Канадской кафедрой публичной этики и является одним из директоров отдела этики и политики Исследовательского центра по проблемам этики (CRÉ).