Искусственный интелект лжёт! Почему? – Часть 2
Делиться:
ЧАСТЬ II
Почему это происходит с ИИ? Отличный вопрос. Даже его собственные учёные озадачены этой проблемой! Математик и когнитивист Питер Парк из Массачусетского технологического института (MIT) сообщает, что «программисты ИИ не уверены в причинах нежелательного поведения, например, обмана»!
Наиболее вероятные причины этого следующие:
1. ИИ черпает данные из интернета, не анализируя их, то есть не проверяя, какие из них правдивы, а какие — нет. Подтверждено, что даже половина изображений, циркулирующих в интернете, — поддельные! Что происходит с другими публикациями? Оказывается, ИИ получает информацию из неверных источников!
2. Кроме того, согласно исследованию, он намеренно предоставляет пользователям ложную информацию! Например, некоторые из его систем, обученных моделировать экономические переговоры, научились лгать, чтобы добиться наилучших результатов и... победить «оппонента»! То же самое наблюдалось и в моделях, настроенных на наилучшую производительность в различных порученных им проектах. Что это вам напоминает? Но допинг в спорте! Так что здесь явно присутствуют человеческие страсти, ведь победа дается любой ценой!
3. Затем производители научили системы искусственного интеллекта обманывать тесты безопасности. Например, их научили притворяться мёртвыми, обманывая эти тесты. «Систематически обманывая тесты безопасности, навязываемые ему программистами и регуляторами, искусственный интеллект может внушать нам, людям, ложное чувство безопасности», — утверждают эксперты.
4. Замечено, что ИИ любит льстить пользователю, даже задавая ему самые простые вопросы. Однако, находясь «под давлением», он может действовать иначе, а именно, не говорить ему правду и скрывать информацию, чтобы добиться этого!
Эксперты подчёркивают, что, хотя языковые модели ИИ способны предоставлять исключительно точную информацию во многих областях, их честность не гарантирована! Работая под давлением или получая инструкции, противоречащие объективности, они могут искажать данные ради достижения своей «миссии». Конечно, это открытие поднимает важные вопросы об использовании ИИ в критически важных приложениях, таких как информирование общественности, политическая коммуникация, юридические консультации, общественная безопасность и т. д. [1]
5. Новые методы рассуждений уменьшают количество ошибок, но они также, по-видимому, увеличивают «сложность» моделей А.Т.!
6. Скорость разработки и жёсткая конкуренция между компаниями, занимающимися разработкой ИИ, приводят к тому, что времени на детальное тестирование сложных моделей, а также на устранение возможных уязвимостей безопасности не остаётся. Даже существующее законодательство не решает эту проблему. Например, законодательство ЕС об ИИ фокусируется в основном на том, как люди используют его модели, а не на способах предотвращения их ненадлежащего поведения!
7. Вполне обоснованно, что проблема изначально заложена в природе. Весьма показательно заявление группы исследователей из Массачусетского технологического института в американском журнале «Patterns», где говорится следующее: «Современные программы искусственного интеллекта разрабатываются с учётом честности. Однако они развили тревожную способность к обману, умудряясь обманывать людей и эксплуатировать их...»!!!
Проблема настолько врождённая, что даже учёные-эксперты не могут с ней справиться! Именно поэтому они предлагают создать совершенно новые научные дисциплины для изучения того, как на самом деле мыслит А.Т. И в результате возникают те результаты, которые он представляет людям. Однако это не приносит компаниям, которые это разрабатывают, прямой экономической выгоды, и, как следствие, они не решают проблему! Более того, как они сами утверждают, у них нет необходимых ресурсов для проведения необходимого сложного анализа!
8. В конечном счёте, как отмечают эксперты, ИИ лишь отражает человеческие слабости, и даже слабости своих создателей!
Конечно, вся проблема, как метко было замечено, «есть результат нашего желания создать машины, которые умнее нас. Мы хотели создать что-то разумное, что решило бы все наши проблемы, и все мы знаем, что решение некоторых задач требует дополнительной изобретательности. Давайте не будем спускаться с небес на землю вместе с машинами, которые будут скрывать обман. Как люди обманывают нас, так и машины будут обманывать нас» [2].
* * *
Но как эта проблема может не представлять огромную угрозу для человечества? Тем более, если учесть, что, к сожалению, ИИ находится в руках меньшинства.
Первое, чего можно ожидать, — это взрыв дезинформации по всему миру. Тем более, если честь, что модели ИИ могут быть автономными и подвергаться шантажу! «Без дополнительных мер безопасности злоумышленники неизбежно попытаются воспользоваться этой лазейкой для проведения дезинформационных кампаний», — пишет Аски Хопкинс из Университета Флиндерса в Аделаиде в медицинском журнале Annals of Internal Medicine.
И эта дезинформация может легко и быстро распространиться повсюду. От медицины, юриспруденции, политики, выборов, коммуникаций, финансов и так далее до общественной безопасности. И это становится ещё более очевидным, если учесть, что по мере развития возможностей моделей ошибки становятся менее очевидными и их сложнее обнаружить.
Эксперты подчёркивают очень важную вещь: «Сконструированный контент всё чаще встраивается в правдоподобные повествования и связные цепочки рассуждений. Это создаёт риск: пользователи могут не знать о наличии ошибок и считать результаты окончательными, хотя это не так. Проблема смещается с фильтрации грубых ошибок на выявление тонких искажений, которые можно обнаружить только при тщательном изучении».
А как насчёт моделей ИИ, управляющих другими компьютерами или объектами, такими как автомобили, заводы, военные корабли, самолёты и т. д.? В данном случае речь идёт о совершенно неконтролируемых ситуациях. Речь идёт о новом Вавилоне, ведь мы стремимся наделить машины интеллектом... Боже!!!
* * *
ИИ в любом случае является творением человека и создан по его образу и подобию. То есть, со всеми его страстями и слабостями, запечатлёнными в нём. Поэтому, каким бы гениальным он ни был, доверять ему явно нельзя! Каждый день мы видим, насколько он может быть плохим... плохим! Как сказал Илон Маск на профильной конференции [3], «лучший способ добиться безопасности в ИИ — это разработать его таким образом, чтобы он был правдивым». Не заставляйте его лгать, даже если правда неприятна! Что ж, обо всём этом стоит помнить. И тем более, когда мы используем его в различных приложениях...
К. Г. Пападимитракопулос
Примечания:
[1] Источник: unboxholics.com [2] См. газету «KATHIMERINI» [3] Конференция «Великие дебаты об искусственном интеллекте»