Русская Православная Церковь

ПРАВОСЛАВНЫЙ АПОЛОГЕТ
Богословский комментарий на некоторые современные
непростые вопросы вероучения.

«Никогда, о человек, то, что относится к Церкви,
не исправляется через компромиссы:
нет ничего среднего между истиной и ложью.»

Свт. Марк Эфесский


Интернет-содружество преподавателей и студентов православных духовных учебных заведений, монашествующих и мирян, ищущих чистоты православной веры.


Карта сайта

Разделы сайта

Православный журнал «Благодатный Огонь»
Церковная-жизнь.рф

Кошмарная угроза искусственного интеллекта

 

Написано г-ном Димитриосом Ником. Даскалакис, адвокат Афин

 

Джеффри Хинтон (выдающийся учёный в области компьютерных наук), известный как «крёстный отец искусственного интеллекта», дал интервью американскому новостному журналу «60 Minutes», транслируемому телеканалом CBS, пытаясь пробудить человечество к ужасающим опасностям, которые несёт стремительно развивающаяся технология искусственного интеллекта, призванная оказать решающее влияние на будущий облик мира, настолько, что ранее немыслимый вопрос «что будет значить быть человеком в эпоху искусственного интеллекта?» будет поставлен на реалистичной основе.

Во время своего телевизионного интервью Хинтон сделал следующее крайне тревожное заявление:

«Человечество понятия не имеет, что мы создали. Мы вступаем в период, когда впервые в истории у нас может появиться нечто умнее нас самих»1.

Это уже подтверждено, поскольку инновационная и высокоразвитая чат-платформа на основе искусственного интеллекта Chat GPT обладает удивительной способностью вести обсуждения по широкому кругу тем, отвечая на вопросы пользователей за считанные секунды, при этом извлекая данные и информацию из обширной базы данных.

Однако невообразимая способность приложений искусственного интеллекта хранить, обрабатывать и использовать огромный объем данных за очень короткое время буквально уничтожает все интеллектуальные и аналитические навыки человеческого разума, в результате чего любое сравнение с интеллектуальными алгоритмами искусственного интеллекта заканчивается катастрофой, поскольку человеку совершенно невозможно конкурировать с компьютерной системой искусственного интеллекта, которая имеет доступ к бесчисленным данным.

Однако стоит подчеркнуть, что растущее влияние компьютерных систем искусственного интеллекта в различных областях человеческой деятельности является печальным предвестником их будущего доминирования, события, которое ознаменует постепенное подчинение человека превосходящему интеллекту машин.

Хотя проблемы, связанные с искусственным интеллектом, чрезвычайно серьёзны и затрагивают само будущее человечества, граждане ещё не осознали потенциально огромную опасность того, что компьютерные системы ИИ и интеллектуальные гуманоидные роботы могут постепенно получить полный контроль над жизнью людей. Стремительное развитие искусственного интеллекта меняет настоящее и формирует будущее быстрее, чем любая другая технология.

ИИ ДЕЙСТВИЕ

В рамках Европейского союза начались многолетние переговоры по созданию нормативной базы, то есть европейского регламента, регулирующего искусственный интеллект, с целью запрета применения систем искусственного интеллекта в публичной сфере и защиты основных прав личности от неконтролируемого комбинированного использования цифровых технологий и искусственного интеллекта.

Правительства европейских стран, ранее определив те системы искусственного интеллекта (неприемлемого и высокого риска), которые представляют серьезную угрозу системе защиты прав человека, впоследствии установили ряд исключений, внедрив запрещенные практики искусственного интеллекта «черным ходом» с целью массового наблюдения за гражданами в общественных местах, а также распознавания и анализа их эмоций.

Я привожу пример для того, чтобы граждане могли понять, что Закон об искусственном интеллекте (Закон об ИИ) вместо того, чтобы стать строгой нормативной базой для защиты основных прав, на самом деле станет «черным ходом», который позволит, с помощью многочисленных исключений и неясных положений, осуществлять удаленную биометрическую идентификацию, подсознательную социальную манипуляцию и распознавать эмоции ничего не подозревающих граждан.

Согласно европейскому регламенту (статья 5, пункт 1, подпункт f):

«Использование систем искусственного интеллекта для определения эмоций физического лица на рабочем месте и в образовательных учреждениях запрещено, за исключением случаев, когда использование системы искусственного интеллекта предназначено для ее внедрения в эксплуатацию или выпуска на рынок в медицинских целях или в целях безопасности».

Однако соображения безопасности представляют собой расплывчатое и неясное юридическое понятие, которое может быть интерпретировано по-разному, в результате чего любой авторитарный и злонамеренный орган власти может произвольно ссылаться на «соображения безопасности», чтобы подвергать учащихся и сотрудников недопустимой постоянной оценке их эмоций системами искусственного интеллекта.

Следовательно, оправданы те, кто своевременно указал на то, что правительства настойчиво стремятся получить все больше ресурсов, законов и технологических возможностей для мониторинга, контроля и наказания обычных людей.

Не будет преувеличением сказать, что европейские правительства поддались искушению инструментализировать европейское регулирование в области искусственного интеллекта с целью легитимации превентивной охраны порядка и массового наблюдения за гражданами в общественных местах (например, путем использования систем ИИ дистанционной биометрической идентификации, как в режиме реального времени, так и сзади, с помощью цифровых камер со встроенным программным обеспечением искусственного интеллекта), в то время как постоянно расширяющееся наблюдение всегда будет осуществляться «ради нашего блага», то есть во имя безопасности и борьбы с терроризмом.

Системы удаленной биометрической идентификации (международный термин «удаленная биометрическая идентификация» [RBI]), основанные на приложениях и программном обеспечении искусственного интеллекта, используются для удаленной идентификации людей, поскольку они обладают способностью идентифицировать граждан в режиме реального времени, обрабатывая их уникальные биометрические характеристики, которые хранятся в цифровых справочных базах данных.

Понятие биометрической идентификации включает в себя автоматизированное распознавание физических, физиологических, поведенческих или психологических характеристик человека (отпечатков пальцев, лица, радужной оболочки глаза, голоса, походки, рисунка кровеносных сосудов и т. д.) с целью определения личности физического лица.

Наиболее распространенной технологией биометрической идентификации — наряду со сканированием радужной оболочки глаза и отпечатками пальцев — является распознавание лиц.

Некоторые государства-члены ЕС уже внедряют под предлогом угрозы национальной безопасности и общественному порядку дистанционное распознавание лиц в общественных местах, что открывает путь к легализации массовой и неконтролируемой слежки за гражданами, хотя используемый метод биометрической идентификации нарушает основные права и свободы.

Андреа Елинек (президент Европейского совета по защите данных) и Войцех Вевировски (руководитель Европейского совета по защите данных) недавно заявили, что:2

Внедрение удалённого биометрического распознавания в общедоступных пространствах означает конец анонимности в этих местах. Такие приложения, как распознавание лиц в реальном времени, нарушают основные права и свободы до такой степени, что ставят под сомнение саму суть этих прав и свобод. Это требует немедленного внедрения превентивного подхода. Общий запрет на использование распознавания лиц в общедоступных пространствах — необходимая отправная точка, если мы хотим сохранить наши свободы и создать правовую базу для искусственного интеллекта, ориентированную на человека.

Также адвокат Ставрула Д. Георгиу (доктор публичного права) в своей статье «Автоматическое распознавание лиц в общественных местах: между реальностью и антиутопией»3 делает весьма важные и особенно меткие замечания, утверждая следующее:

«В демократическом обществе отсутствие идентификации или анонимности является характерной чертой публичной сферы. Право на идентичность, которое в принципе защищено положениями о защите персональных данных, не подразумевает обязанности идентифицировать себя в публичной сфере. Однако вмешательство «третьих лиц» посредством фотосъемки в общественных местах и ​​распространения информации в целом ставит под угрозу свободу самоопределения и развития личности как необходимое условие демократического принципа, поскольку свобода самоопределения неразрывно связана с неприкосновенностью частной жизни и информационным самоопределением, свободами, которые нарушаются прежде всего камерой, но ещё в большей степени — автоматическим распознаванием лиц».

ВЫБРОС РАБОТЫ

В то же время компьютерные системы беспрепятственно вторгаются на рабочие места. Немцы уже обучают человекоподобных роботов для замены рабочих на сборочной линии BMW4, которым предстоит перемещать детали кузова с одного места на другое.

Большинство граждан, вероятно, не знают о пугающем предупреждении МВФ, согласно которому в течение следующих двух лет5 искусственный интеллект повлияет на 60% рабочих мест в развитых экономиках, и этот элемент кардинально изменит глобальную рабочую среду.

Ускоренное развитие больших языковых моделей (LLM), таких как Chat GPT и Chinese Deep Seek, в сочетании с широким использованием технологий автоматизации и робототехники не гарантирует жизнеспособности и безопасности рабочих мест, поскольку крупные китайские компании по производству электроники, аккумуляторов, солнечных панелей и контейнеров сократили присутствие человека на производственной линии до минимума, достигнув уровня автоматизации более 90%6.

В то же время большие языковые модели способны писать статьи, изучать контракты, анализировать медицинские осмотры и автоматизировать тестирование программного обеспечения, в результате чего рабочие места, в которых интеллектуальный элемент имеет первостепенное значение, подвергаются серьезному риску.

Таким образом, Искусственный Интеллект являет нам свое темное и угрожающее лицо, поскольку он стремится сделать труд ненужным и бесполезным для гражданина, что является уникальным и беспрецедентным событием в Истории Человечества, учитывая, что труд всегда был неразрывно связан с личными и профессиональными достижениями человека, в то время как в то же время устранение труда станет испытанием на прочность (так или иначе) коррумпированных и неоклассовых политических систем, которые будут призваны управлять кошмарной — и в то же время взрывоопасной — социальной средой, где миллионы безработных граждан будут бродить в состоянии стада без профессиональных навыков, цели и смысла жизни.

АВТОНОМИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

При этом интеллектуальные машины не только ставят под сомнение будущее человеческого труда, но и пытаются навязать свое антиутопическое господство, развивая невообразимые способности, которые ставят под угрозу выживание человеческого вида.

Государственный департамент США провел исследование7, которое рисует тревожную картину катастрофических рисков, связанных с быстро развивающейся технологией искусственного интеллекта.

Результаты исследования закодированы в следующем кошмарном выводе: эволюция искусственного интеллекта за пределами заранее определенного предела возможностей может стать потенциально неконтролируемой для человека.

Фактически расследование Госдепартамента США, ссылаясь на показания самих ученых, приходит к печальному выводу о том, что в будущем возможна полная потеря контроля над компьютерными системами искусственного интеллекта, которые разрабатываются и проектируются в экспериментальных лабораториях, что может повлечь за собой катастрофические последствия для глобальной безопасности.

Поэтому не будет преувеличением утверждать, что стремительное развитие увлекательного, но крайне опасного искусственного интеллекта приведет к формированию «технообщества», в котором люди и машины не просто будут сосуществовать, но первые сольются посредством электронных или медицинских имплантатов с мощными компьютерными системами ИИ, что приведет к превращению человека в удручающую гибридную сущность, т.е. в отталкивающую гуманоидную сущность (киборга), которая будет носить на себе объединенные органические и механические части тела.

Через несколько лет человечество столкнется с нарастающей опасностью автономности компьютерных машин и структур искусственного интеллекта, которые будут развивать свои действия вне рамок своего программирования, реализуя собственные «желания», предварительно вытеснив человека из важных центров принятия решений и взяв на себя исключительную инициативу на уровне влияния, господства и контроля над живой жизнью на планете.

В поддержку вышеизложенной позиции, то есть того, что мировое сообщество не будет готово столкнуться с кошмарной опасностью автономных действий компьютерных систем на базе искусственного интеллекта, мы сообщаем, что компьютер искусственного интеллекта Open AI модели 03, который описывается как «самый умный и способный» в мире, нагло проигнорировал явную команду на его деактивацию, тем самым подорвав его механизм выключения, что особенно встревожило исследователей.

Компания «Palisade Research», занимающаяся исследованиями и изучением опасного потенциала искусственного интеллекта и новых технологий, пытаясь предупредить государственные органы и общественность о риске потери контроля над компьютерными системами ИИ, заявила следующее:

«Сейчас у нас появляется всё больше эмпирических доказательств того, что модели ИИ часто подрывают процесс увольнения ради достижения своих целей. По мере того, как компании разрабатывают системы ИИ, способные работать без человеческого контроля, такое поведение становится всё более тревожным».8

В контексте антиутопического общества, зловещий отпечаток которого уже виден в безрассудной (и обязательной) цифровизации всех сфер человеческой деятельности, свободная воля гражданина явно находится под угрозой, если не под угрозой исчезновения, поскольку компьютерные системы искусственного интеллекта и разумные человекоподобные роботы будут все больше приобретать ведущую роль, определяя, программируя и контролируя жизни людей, неспособных реагировать.

Примечания:

1. newsbomb.gr 2. edps.europa.eu 3. syntagmawatch.gr 4. carandmotor.gr 5. in.gr 6. bankingnews.gr 7. iefimerida.gr 8. iefimerida.gr

Источник: kvathiotis.substack.com



Подписка на новости

Последние обновления

События