Русская Православная Церковь

ПРАВОСЛАВНЫЙ АПОЛОГЕТ
Богословский комментарий на некоторые современные
непростые вопросы вероучения.

«Никогда, о человек, то, что относится к Церкви,
не исправляется через компромиссы:
нет ничего среднего между истиной и ложью.»

Свт. Марк Эфесский


Интернет-содружество преподавателей и студентов православных духовных учебных заведений, монашествующих и мирян, ищущих чистоты православной веры.


Карта сайта

Разделы сайта

Православный журнал «Благодатный Огонь»
Церковная-жизнь.рф

 

Искусственный интеллект: грозит ли он уничтожением человеческого рода? Что показывает откровенный доклад-отчет

Τεχνητή νοημοσύνη: Απειλεί να εξαφανίσει το ανθρώπινο είδος; Τι δείχνει αποκαλυπτική έκθεση

 

14 марта 2024 г.

 

 

В докладе-отчете, представленном правительству США, рассматриваются риски, возникающие в результате развития Искусственного Интеллекта (Далее ИИ).

 

Значительные риски, создаваемые искусственным интеллектом (ИИ), приводятся в докладе о национальной безопасности, подготовленном по заказу правительства США, согласно которому в худшем случае он может представлять «угрозу вымирания человеческому виду».

 

«Нынешнее развитие искусственного интеллекта создает неотложные и растущие риски для национальной безопасности», — говорится в отчете, который TIME получил до его публикации.

 

Фактически, как отмечается в докладе: «Рост передового искусственного интеллекта и AGI-ОИИ (общего искусственного интеллекта) потенциально может дестабилизировать глобальную безопасность, напоминая появление ядерного оружия».

 

AGI — это гипотетическая технология, которая может выполнять большинство задач на человеческом уровне или выше. Таких систем в настоящее время не существует, но ведущие лаборатории искусственного интеллекта работают в этом направлении, и многие ожидают, что искусственный интеллект появится в ближайшие пять лет или раньше.

 

Три автора отчета работали над ним более года, общаясь с более чем 200 правительственными чиновниками, экспертами и работниками компаний, занимающихся искусственным интеллектом, в рамках своего исследования.

 

«Риск вооружения» «систем потенциально может быть использован для планирования и даже осуществления разрушительного биологического, химического оружия или кибератак».

 

Фактически, некоторые из этих разговоров рисуют тревожную картину, предполагая, что многие сотрудники службы безопасности ИИ в лабораториях обеспокоены искаженными мотивами, определяющими принятие решений.

 

Итоговый документ, озаглавленный «План действий по повышению безопасности и защищенности передового искусственного интеллекта», рекомендует ряд радикальных и беспрецедентных политических действий, которые в случае принятия фундаментально разрушат индустрию искусственного интеллекта, одновременно минимизируя опасности. В докладе даже рекомендуется, чтобы американское правительство двигалось «быстро и решительно» в этом направлении.

 

Рекомендации доклада-отчета

 

Как рекомендуется в докладе, Конгресс должен объявить незаконным обучение моделям искусственного интеллекта, которые используют более определенного уровня вычислительной мощности. Ограничение должно будет установить новое федеральное агентство искусственного интеллекта, хотя в докладе, например, предлагается, что агентство может установить его чуть выше уровня вычислительной мощности, используемой для обучения текущих моделей. Новое агентство искусственного интеллекта должно потребовать от компаний получения разрешения правительства на обучение и разработку новых моделей, превышающих установленный низкий порог.

 

Согласно отчету, властям также следует «срочно» рассмотреть вопрос о запрете публикаций с использованием мощных моделей искусственного интеллекта, например, в рамках лицензий с открытым исходным кодом, при этом нарушения потенциально могут наказываться тюремным заключением.

 

Кроме того, правительству следует ужесточить контроль над производством и экспортом чипов искусственного интеллекта и направить федеральное финансирование на исследования, направленные на повышение безопасности передового искусственного интеллекта.

 

Рекомендации «не отражают точку зрения правительства»

 

Отчет был заказан Gladstone AI Государственным департаментом в ноябре 2022 года и представлен в виде 247-страничного документа 26 февраля. Рекомендации «не отражают точку зрения Государственного департамента или правительства США», говорится на первой странице отчета.

 

Рекомендации отчета, многие из которых ранее были немыслимы, следуют за головокружительной серией крупных событий в области искусственного интеллекта, которые заставили многих наблюдателей пересмотреть свое отношение к этой технологии.

 

Пока правительства по всему миру обсуждают, как лучше всего регулировать искусственный интеллект, крупнейшие мировые технологические компании быстро создали инфраструктуру для обучения следующего поколения более мощных систем — в некоторых случаях планируя использовать в 10 или 100 раз больше вычислительной мощности.

 

Маловероятно, что рекомендация будет принята правительством США.

 

В докладе говорится, что запрет на обучение передовым системам искусственного интеллекта сверх определенного порога может «снизить динамику гонки между всеми разработчиками искусственного интеллекта» и помочь замедлить темпы производства более быстрого оборудования в отрасли производства микросхем.

 

Со временем Федеральное Агентство по искусственному интеллекту могло бы повысить порог и разрешить обучение более продвинутым системам, как только безопасность современных моделей будет достаточно доказана, говорится в докладе. Точно так же правительство может снизить запас прочности, если в существующих моделях будут обнаружены опасные особенности.

 

Однако это предложение, вероятно, столкнется с политическими трудностями. «Я думаю, что эта рекомендация вряд ли будет принята правительством США», — сказал Грег Аллен, директор Центра искусственного интеллекта и передовых технологий Вадхвани при Центре стратегических и международных исследований (CSIS), в ответ на предоставленное резюме TIME, поскольку рекомендация отчета объявить вне закона обучение искусственному интеллекту превышает определенный порог.

 

«Я думаю, что без какого-то экзогенного шока они вряд ли изменят этот подход», — добавил Аллен.

 

Две категории рисков

 

В докладе основное внимание уделяется двум отдельным категориям рисков. Описывая первую категорию, которую называют «риском вооружения», в докладе говорится: «Такие системы потенциально могут быть использованы для разработки и даже применения разрушительного биологического, химического оружия или кибератак или обеспечения беспрецедентного применения оружия в робототехнике».

 

Вторая категория — это то, что в докладе называется «риском потери контроля», или возможностью того, что передовые системы искусственного интеллекта перехитрят своих создателей. В докладе говорится, что «есть основания полагать, что они могут стать неконтролируемыми, если их выращивать с использованием современных технологий, и по умолчанию могут вести себя враждебно по отношению к людям».

 

Обе категории риска, говорится в докладе, усугубляются «племенной динамикой» в индустрии искусственного интеллекта. В докладе говорится, что вероятность того, что первая компания, достигшая AGI, получит большую часть финансовых выгод, стимулирует компании отдавать предпочтение скорости над безопасностью.

 

«Лаборатории искусственного интеллекта сталкиваются с сильным и немедленным стимулом как можно быстрее масштабировать системы», — говорится в отчете. «У них нет немедленного стимула инвестировать в меры безопасности или защиты, которые не приносят немедленных экономических выгод, хотя некоторые делают это из искреннего беспокойства».

 

Препятствие на пути повышения потенциала искусственного интеллекта.

 

В отчете Гладстона (Gladstone ) аппаратное обеспечение – в частности, высокотехнологичные компьютерные чипы, используемые сегодня для обучения систем искусственного интеллекта – является основным препятствием на пути расширения возможностей искусственного интеллекта. Регулирование распространения этих материалов, утверждается в докладе, может быть «самым важным требованием для обеспечения долгосрочной глобальной безопасности и защиты от искусственного интеллекта».

 

В докладе также высказывается предположение, что, в конце концов, физические ограничения Вселенной могут быть не на стороне тех, кто пытается предотвратить распространение продвинутого искусственного интеллекта с помощью чипов.

 

«Поскольку алгоритмы ИИ продолжают совершенствоваться, становится доступно больше возможностей для меньшего количества общих вычислений. «В зависимости от того, насколько далеко зайдет эта тенденция, в конечном итоге может стать невозможным вообще остановить распространение передового искусственного интеллекта посредством компьютерных кластеров», — добавил он.

 

В худшем случае

 

Несмотря на трудности, авторы отчета говорят, что их впечатлило то, насколько легко и дешево сегодня пользователям удается убрать защитные ограждения в модели ИИ, если у них есть доступ к ее весам.

 

«Если вы распространяете модель с открытым исходным кодом, даже если она выглядит безопасной, она может быть опасной в будущем», — сообщает соавтор отчета и главный технический директор Gladstone Эдвард Харрис, добавляя, что решение открыть исходный код модели необратимо.

 

Но эта доктрина, по его словам, перестает применяться, когда потенциальные негативные последствия ваших действий настолько огромны. «Наш курс по умолчанию сейчас, кажется, очень близок к созданию систем, которые будут достаточно мощными, чтобы их можно было использовать в качестве оружия разрушительным образом или неконтролируемо», — сказал генеральный директор Gladstone и брат Эдварда Джо Харрис.

 

«Один из худших сценариев заключается в том, что произойдет катастрофическое событие, которое полностью остановит исследования ИИ для всех, и мы не сможем воспользоваться невероятными преимуществами этой технологии», — добавил он.

 

Источник: https://enromiosini.gr/arthrografia/techniti-noimosyni-apeilei-na/



Подписка на новости

Последние обновления

События