Русская Православная Церковь

ПРАВОСЛАВНЫЙ АПОЛОГЕТ
Богословский комментарий на некоторые современные
непростые вопросы вероучения.

«Никогда, о человек, то, что относится к Церкви,
не исправляется через компромиссы:
нет ничего среднего между истиной и ложью.»

Свт. Марк Эфесский


Интернет-содружество преподавателей и студентов православных духовных учебных заведений, монашествующих и мирян, ищущих чистоты православной веры.


Карта сайта

Разделы сайта

Православный журнал «Благодатный Огонь»
Церковная-жизнь.рф

Расизм Искусственного Интеллекта чуть не отправил его в тюрьму за преступление, которого он не совершал

Ο ρατσισμός της τεχνητής νοημοσύνης παραλίγο να τον στείλει στη φυλακή για ένα έγκλημα που δεν διέπραξε

Системы искусственного интеллекта могут увековечить существующие формы дискриминации и предвзятости, что приведет к «автоматизации неравенства».

В органах государственного управления по всей Европе уже широко используются системы искусственного интеллекта (ИИ) и автоматического принятия решений (ADM).

Эти системы, часто построенные на алгоритмах, распознают наши лица на публике, организуют программы по безработице и даже прогнозируют оценки на экзаменах.

Их работа — прогнозировать поведение человека и принимать решения даже в таких деликатных областях, как благосостояние, здравоохранение и социальные услуги.

Как видно из опыта США, где алгоритмическая полицейская деятельность была с готовностью принята на вооружение, на эти решения по своей сути влияют скрытые предубеждения и ошибки. Это может иметь разрушительные последствия: в Мичигане в июне 2020 года чернокожий мужчина был арестован, допрошен и задержан на ночь за преступление, которого он не совершал. Его случайно обнаружила система искусственного интеллекта.

Эти системы обучаются на уже существующих данных, сгенерированных человеком, которые ошибочны по самой своей природе. Это означает, что они могут увековечить существующие формы дискриминации и предвзятости, что приведет к тому, что Вирджиния Юбэнкс назвала «автоматизацией неравенства», согласно Conversation.

Привлечение ИИ к ответственности

Широкое распространение этих систем поднимает актуальный вопрос: что нужно сделать, чтобы заставить алгоритм отвечать за свои решения?

Недавно это было проверено в Канаде, когда суды обязали авиакомпанию возместить ущерб клиенту, который последовал неверному совету, данному ее чат-ботом на базе искусственного интеллекта. Авиакомпания попыталась опровергнуть иск, заявив, что чат-бот «несет ответственность за свои действия».

В Европе был предпринят институциональный шаг по регулированию использования искусственного интеллекта в форме недавно принятого Закона об Искусственном Интеллекте.

Этот закон направлен на регулирование крупных и мощных систем искусственного интеллекта, предотвращая их от системных угроз и одновременно защищая граждан от потенциального злоупотребления. Запуск закона сопровождался широким спектром предыдущих прямых действий, инициатив и кампаний, инициированных организациями гражданского общества во всех государствах-членах ЕС.

Это растущее сопротивление проблемным системам искусственного интеллекта в последние годы набрало силу и заметность. Это также оказало решающее влияние на выбор регулирующих органов, заставляя их принимать меры, защищающие фундаментальные права.

Искусственный интеллект уже влияет на нашу повседневную жизнь

Для европейских представителей гражданского общества ключевой проблемой является недостаточная осведомленность общественности о том, что искусственный интеллект используется для принятия решений во многих сферах их жизни. Даже когда люди знают об этом, часто неясно, как работают эти системы или кто должен нести ответственность, если они принимают несправедливое решение.

Отсутствие прозрачности означает, что борьба за алгоритмическую справедливость является не только политическим, но и символическим вопросом: она ставит под сомнение сами наши представления об объективности и точности.

Как показал наш первый опрос, в обсуждениях ИИ, как известно, доминируют шумиха и паника в СМИ. Следовательно, европейские организации гражданского общества вынуждены преследовать две цели: четко высказаться по этому вопросу и бросить вызов представлению об искусственном интеллекте как панацее от социальных проблем.

Важность названия проблемы очевидна в нашем новом отчете, в котором собеседники не решались даже использовать такие фразы, как «Этический ИИ», или вообще не упоминали «ИИ». Вместо этого они использовали альтернативные термины, такие как «расширенная статистика», «автоматизированное принятие решений» или «системы ADM».

Источник: https://enromiosini.gr/arthrografia/o-ratsismos-tis-technitis/



Подписка на новости

Последние обновления

События