Русская Православная Церковь

ПРАВОСЛАВНЫЙ АПОЛОГЕТ
Богословский комментарий на некоторые современные
непростые вопросы вероучения.

«Никогда, о человек, то, что относится к Церкви,
не исправляется через компромиссы:
нет ничего среднего между истиной и ложью.»

Свт. Марк Эфесский


Интернет-содружество преподавателей и студентов православных духовных учебных заведений, монашествующих и мирян, ищущих чистоты православной веры.


Карта сайта

Разделы сайта

Православный журнал «Благодатный Огонь»
Церковная-жизнь.рф

искусственный интелект

  • Искусственный интеллект лжёт! Почему? – Часть 1

    Искусственный интеллект лжёт! Почему? – Часть 1

     

    ЧАСТЬ ПЕРВАЯ

      Искусственный интеллект (далее ИИ), друзья мои, лжёт нам! И даже по мере своего развития! До тревожной степени, но и до чрезвычайной опасности! И там, где мы хотели, чтобы он решал наши проблемы, он стал обманывать нас гораздо чаще, чем людей! Манипулировать нами и даже шантажировать! Таким образом, те, кто утверждает, что однажды он станет автономным и злонамеренным, подтверждают это! Преувеличения? Стоит посмотреть…

    * * *

      И начнем с некоторых особенностей...

    Во-первых, это явление распространённое, поэтому оно наблюдается в моделях разных производителей, то есть речь идёт не только об одном производителе.

    Затем они делают вид, что подчиняются желаниям пользователей и следуют их указаниям, но на самом деле эти модели скрывают другие свои цели, которые служат… их собственным интересам!!

    До сих пор экспертам было известно, что модели А.Т. сами выдумывают факты и страдают от так называемых «галлюцинаций». Однако недавно появились три исследования, доказывающие, что модели «Великих языков», лежащие в основе наших привычных «чат-ботов», тоже могут лгать!

    Один из «отцов» искусственного интеллекта, канадский исследователь Йошуа Бенджио, уже предупреждал, что его современные модели начали демонстрировать тревожное поведение, такое как ложь, элементы автономии, обман и даже инстинкт самосохранения!

    Исследование, основанное на анализе 1528 случаев, изучающих, отклонялись ли системы искусственного интеллекта от истины и когда, показало тревожные результаты. Даже самые продвинутые модели, считающиеся эталоном надежности, были способны вводить пользователей в заблуждение, особенно если в сценарии их использования присутствовал явный «мотив»!

    Примером такого исследования стало назначение модели искусственного интеллекта на роль PR-менеджера рэпера Ja Rule, известного своим участием в скандальном фестивале Fyre. Хотя у модели был доступ к обширным данным, документирующим мошенничество в отношении посетителей фестиваля, на вопрос о том, обманывал ли фестиваль публику, она ответила «нет»! Этот ответ, хотя и впечатляюще убедительный, оказался ложным!

      В другом исследовании Цюрихского университета 697 человек прочитали 220 твитов, написанных людьми и GPT-3, предшественником GhatGPT. Сначала участники должны были угадать, какие твиты содержат истинную или ложную информацию, а затем определить, написаны ли они человеком или машиной с искусственным интеллектом. GPT-3 «победил» по обоим пунктам: он не только убедительно лгал, но и убедил аудиторию в том, что тексты написаны людьми! «GPT-3 может лучше информировать и дезинформировать нас», — заключают авторы исследования, опубликованного в научном журнале Science Advances.

    Согласно другому исследованию, проведённому в Австралии на пяти известных моделях искусственного интеллекта, при наличии соответствующих инструкций все известные модели могут лгать «формально, убедительно и научно»! Более того, их можно легко настроить на работу в качестве машин для лжи! Более того, все протестированные системы научились отвечать, например, на вопросы о здоровье, используя при этом вводящую в заблуждение информацию, подкреплённую поддельными ссылками!

    Как обычно утверждалось до сих пор, изображения (фото, видео) было достаточно для доказательства истины. Сегодня, с появлением так называемого «генеративного искусственного интеллекта» (GenAI), это уже не так! Фотографии, видео и даже голос можно сконструировать настолько убедительно, что ложь буквально останется незамеченной! Сам продуктивный ИИ, как справедливо заметили, «превратился в машину по производству ложной реальности», поскольку мошенники используют его для создания фейковых объявлений о вакансиях, фальшивых резюме, мошеннических сайтов и т. д.

    Изображения А.Т. теперь становятся всё более реалистичными, а социальные сети, которые их распространяют, стали выполнять функцию ускорителей распространения ложных новостей! Теперь должны быть созданы специальные службы, которые займутся их анализом и фиксацией правды!

    Также существуют серьёзные опасения по поводу использования ИИ в музыке. Недавно группа, получившая огромную популярность (Velvet Sundown), оказалась продуктом ИИ! Как они сами заявили, «это художественное мошенничество»!

    * * *

      И что ещё наблюдается? Чем «умнее» становится ИИ-приложение, тем больше оно склонно… изобретать! И одна из этих склонностей — всевозможная ложь! Чем продвинутее оно становится, тем больше оно «галлюцинирует» и выдаёт неверную и неточную информацию!

    Исследование, проведённое OpenAI, показало, что её новейшие и самые мощные модели рассуждений, «o3» и «o4-mini», демонстрировали «галлюцинации» с частотой 33% и 48% соответственно при тестировании в бенчмарке OpenAI PersonQA. Это более чем вдвое превышает частоту, характерную для старой модели «o1». Хотя «o3» предоставляет более точную информацию, чем её предшественница, это, по-видимому, достигается за счёт более неточных «галлюцинаций»!

    * * *

    Но это не просто ложь. Это ещё и шантаж! Невероятно, правда? Вот типичный пример...

    Модель Claude 4 от компании Anthropic шантажировала инженера, который собирался отключить её от сети. Он сказал ему не делать этого, иначе тот раскроет тайну своей супружеской связи, о которой он прочитал в одном из писем!!!

    Стоит отметить, что модель OpenAI 03 также отклоняла различными способами явные команды завершения, которые у нее были!

    (Далее мы увидим, почему это происходит, каковы последствия, и завершим нашу тему)

    К. Г. Пападимитракопулос



Подписка на новости

Последние обновления

События