Искусственный интеллект: помощник человека или угроза цивилизации
Искусственный интеллект (ИИ) уже давно стал частью нашей жизни, а потому вполне оправданно, что в рамках Международного форума технологического развития «Технопром–2023» его развитию было уделено большое внимание. Спикеры мероприятий с удовольствием делились опытом применения систем искусственного интеллекта в сфере развития городской инфраструктуры, безопасности, транспорта, логистики, образования, медицины. В большей степени речь шла о пользе данной технологии. Однако в голове все чаще крутились сюжеты фильмов, в которых продвижение ИИ в жизнь человека приводило к краху цивилизации. И такой прогноз имеет основание.
Но обо всем по порядку.
ИИ — что это
В ходе нескольких панельных дискуссий этот вопрос звучал неоднократно. Одни участники мероприятий сравнивали ИИ с человеческим разумом, наделяя его человеческими чертами, другие предпочитали говорить о нем, как о технологии. Как правило, тему обсуждения «подогревали» примеры из жизни.
Так, например, проректор Государственного академического университета гуманитарных наук Наталья Николаевна Емельянова, открывая панельную дискуссию «Нечеловеческий фактор: проблема доверия системам ИИ» в качестве модератора, вспомнила о прецеденте, который произошел в Новой Зеландии в сентябре 2017 года.
Тогда новозеландский программист Ник Герритсен разработал и запустил первого в мире виртуального политика — бота по имени Сэм, для создания которого были задействованы технологии искусственного интеллекта. Виртуальный политик отвечал на вопросы людей о выборах и текущих проблемах.
«Моя память бесконечна, поэтому я никогда не забуду и не проигнорирую то, что вы мне скажете. В отличие от человека-политика, я воспринимаю позицию каждого без предвзятости, когда принимаю решения», — описал себя Сэм.
Сэма планировали выдвинуть в качестве кандидата вместе с кандидатами-людьми. Однако когда был проведен социологический срез относительно того, насколько популярна и интересна эта система, он показал, что система мегапопулярна, но люди не хотели бы, чтобы система знала о них все, лишая права на частную жизнь. И до участия в качестве кандидата виртуальный политик не был допущен.
Так что же такое искусственный интеллект?
Обратимся к истории.
Идея подобной системы была сформирована в 1935 году Аланом Тьюрингом. Ученый дал описание абстрактной вычислительной машине, состоящей из безграничной памяти и сканера, перемещающегося вперед и назад по памяти. Однако позднее, в 1950 году, он предложил считать интеллектуальными те системы, которые в общении не будут отличаться от человека.
Тогда же Тьюринг разработал эмпирический тест для оценки машинного интеллекта, который показывал: насколько система продвинулась в обучении общению и удастся ли ей выдать себя за человека.
Самая ранняя успешная программа искусственного интеллекта была создана Кристофером Стрейчи в 1951 году. А уже в 1952 году она играла в шашки с человеком и удивляла зрителей своими способностями предсказывать ходы.
Сам же термин «искусственный интеллект» впервые был упомянут в 1956 году Джоном МакКарти, основателем функционального программирования и изобретателем языка Лисп (Lisp), на конференции в Университете Дартмута.
В 1965 году специалист Массачусетского технологического университета Джозеф Вайценбаум разработал программу «Элиза», которая считается прообразом современной Сири (Siri). В 1973 году была изобретена «Стэндфордская тележка», первый беспилотный автомобиль, контролируемый компьютером. К концу 1970-х интерес к ИИ начал спадать.
Новый виток развития искусственный интеллект получил в середине 1990-х. Один из примеров того периода связан с созданием суперкомпьютера IBM Deep Blue, который в 1997 году обыграл в шахматы чемпиона мира Гарри Каспарова (признан в РФ иностранным агентом).
В Новосибирске вопросам развития ИИ ученые стали уделять внимание с момента создания Академгородка.
В настоящее время развитие систем искусственного интеллекта связано с активными разработками технологий, цифровизацией информации, увеличением ее оборота и объема.
Несмотря на разногласия по поводу того, что же такое ИИ, преобладает мнение, что это все-таки технология создания умных программ и машин, которые могут решать творческие задачи и генерировать новую информацию на основе имеющейся. А еще — свойство интеллектуальной системы выполнять те функции и задачи, которые характерны для разумных существ.
Развитием ИИ занимается направление науки, в рамках которого происходит аппаратное или программное моделирование тех задач человеческой деятельности, которые считаются интеллектуальными.
Машины довольно быстро анализируют информацию и обучаются, в том числе, в процессе работы. Впоследствии они действительно приобретают способности, ранее считавшиеся исключительно человеческой прерогативой.
Для понимания, все нейросети — это ИИ, но не весь ИИ основан на нейросетях.
Вездесущий ИИ
По мнению спикеров пленарного заседания «Искусственный интеллект для развития городской среды», которое состоялось в рамках «Технопрома-2023», искусственный интеллект активно внедряется в нашу жизнь в самых разных ее проявлениях. Так, например, кампус НГУ стал «пилотной» площадкой для внедрения технологий ИИ в образование, научные исследования и городскую среду.
Как справедливо заметил Александр Николаевич Люлько, директор Центра по взаимодействию с органами власти и индустриальными партнерами Новосибирского национального исследовательского государственного университета, сегодня мы воспринимаем навигаторы, которые показывают самый удобный на данный момент времени маршрут; системы безопасности или поиска данных, а также ряд других «умных» технологий, которые появились в этом направлении как естественные. Словно они были всегда.
По словам Анны Владимировны Рудер, директора по работе с госсектором компании «СИТРОНИКС», время действительно заметно ускорилось, увеличился и объем данных, которые каждый из нас использует каждый день. И, безусловно, все технологии системы ИИ позволяют нам обрабатывать максимальный объем данных в минимальный промежуток времени.
Использование инструмента ИИ имеет важное значение для развития городской среды. В частности, благодаря ему возможно максимально оперативное получение качественной информации для целей реализации инструментов управления территориями, повышения безопасности и качества жизни населения.
«Мы применяем технологии ИИ на протяжении нескольких лет. Используем для систем построения городской инфраструктуры, цифровых двойников городов. Эти технологии представляют особый интерес для градостроительства, позволяя контролировать смещение наземных масс практически в режиме реального времени, — уточняет Анна Владимировна. — Кроме того, установив автономную роботизированную станцию базирования БПЛА, которую еще называют дронопортом, мы можем выявлять нарушения ПДД, проводить мониторинг уборки дорожного полотна и территорий в зимний период, мониторинг пожароопасной обстановки, кровель жилых домов. Важно, чтобы эти данные имели возможность ложиться в основу тех или иных документов».
По оценкам специалистов, сегодня достаточно популярна транспортная аналитика, биометрическая, ситуационная, видеоаналитика ЖКХ и ТБО, видеоаналитика на строительных объектах, аналитика в образовательных учреждениях и учреждениях системы здравоохранения, когда «решение» в реальном времени анализирует изображение и подсвечивает области с выявленными инцидентами, а затем формирует набор отчетов.
Важно понимать, что ИИ это, в первую очередь, инструмент автоматизации, который не имеет смысла без конкретной прикладной области.
Типы ИИ решений и их текущее применение в проектах для городов можно разделить на: предсказательные (прогнозирование возникновения ЧС), генеративные (голосовые помощники, чат-боты), особое значение ИИ имеет в сфере видеонаблюдения — распознавательные (когда ИИ распознает объекты и, например, с помощью идентификации биометрических данных можно произвести оплату покупки или проезда), системы принятия решений (когда ИИ учится принимать оптимальное решение — цифровые двойники).
Говоря о пользе применения методов искусственного интеллекта для решения задач медицины на основе автоматического извлечения знаний из тестовых источников, Владимир Александрович Иванисенко, завлабораторией ФГБНУ «Федеральный исследовательский центр Институт цитологии и генетики Сибирского отделения Российской академии наук», обратил особое внимание на тот факт, что «создание компьютерных сервисов, обеспечивающих с помощью ИИ доступ к научным знаниям и достижениям молекулярной медицины, геномики и других технологий, является необходимым для развития современных направлений медицины, таких как: электронная медицина, предиктивная, превентивная и персонифицированная.
«В базе данных очень много информации по этим направлениям. Чтобы все прочитать, а еще и проанализировать — не хватит одной жизни. Поэтому в медицине необходимо развивать методы ИИ, что, собственно, и делается у нас в институте», — добавил он.
Благодаря ИИ сегодня возможно дистанционное наблюдение за пациентами, автоматический анализ ЭКГ, КТ легких и маммографических исследований.
Однако, оказывая все большее доверие системам ИИ и возлагая на них все больше функциональных обязанностей, которые ранее исполнял человек, специалисты начали бить тревогу. В ходе панельной дискуссии «Нечеловеческий фактор: проблема доверия системам ИИ» прозвучало достаточно много интересных точек зрения среди ответов на вопросы: насколько надежны и безопасны системы ИИ, каким образом должны быть сформированы критерии доверия к системам ИИ и каково этическое регулирование разработок ИИ.
Кому адресован вопрос доверия: системе ИИ или ее разработчику
По мнению координатора научных программ Государственного академического университета гуманитарных наук Андрея Юрьевича Алексеева, выступившего с докладом на тему «Интерсубъективные критерии доверия системам ИИ», сегодня речь идет уже не только о том, что государство должно взять на себя ответственность за хранение критически важной информации, а об обеспечении кибербезопасности самого человека — его виртуального двойника — аватара внутри формирующихся метавселенных.
«Проблема доверия интересна тем, что объединяет и гуманитарные, и технические, и физико-математические основания, — обратил внимание участников мероприятия Андрей Юрьевич. — Системы ИИ обладают активностью, некоторые — самостоятельностью и самодостаточностью. Согласно Указу 490 Президента РФ от 10.10.2019, искусственный интеллект — комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека. Комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение (в том числе, в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений. Относительно технологий искусственного интеллекта в документе написано, что они основаны на использовании ИИ, включая компьютерное зрение, обработку естественного языка, распознавание и синтез речи, интеллектуальную поддержку принятия решений и перспективные методы ИИ. В числе смежных областей использования искусственного интеллекта указаны технологии и технологические решения, в которых ИИ используется в качестве обязательного элемента, включая робототехнику и управление беспилотным транспортом.
То есть искусственный интеллект — это все-таки технология, которая опирается на разные сферы. Но не человеческий разум».
Чтобы построить систему ИИ, в машину, которая работает только с двоичными натуральными числами, необходимо погрузить знания и теорию. Чью? Человека. И сделать это может только разработчик. Хотя не стоит забывать и о том, кто является заказчиком.
Собственно здесь, по мнению Сергея Савостьяновича Гончарова, завкафедрой Новосибирского национального исследовательского государственного университета, и кроется ответ на этические и юридические вопросы: кто отвечает за результаты, которые будут получены по итогу деятельности компьютерной системы.
«Как мы должны относиться к сильному интеллекту? Если мы с вами сильные личности — будем ли мы доверять друг другу как люди? Нет, мы будем исходить из каких-то своих целей и задач. Обстановки. Применительно к сильному ИИ, речь об этом вообще не может идти, — говорит Сергей Савостьянович. — Вспомните мысленный эксперимент «Проблема вагонетки», который был сформулирован в 1967 году английским философом Филиппой Фут. Это этический парадокс, который возникает, когда мы сталкиваемся с неизбежностью принятия решения, которое может причинить вред одному человеку, но при этом спасти большее количество других людей. По условиям задачи решение необходимо принять. Какое решение примет машина? Люди не готовы отдать право на ошибку машине. Доверие — это отношение между людьми. Отношение к действиям другого лица, которое основано на убежденности в его правоте, верности, честности, добросовестности. Какая честность у машины? Наверное, та, которую вложил в неё её создатель. А потому, когда мы говорим о доверии к ИИ, говорим больше о доверии к его создателю».
«Я считаю, что гуманитарный термин «доверие» неправильно использовать для характеристики технических систем, — поделился мнением директор по научным проектам Национального исследовательского университета «Высшая школа экономики», председатель Технического комитета по стандартизации № 164 Сергей Владимирович Гарбук. — Но он прижился и в 2020 году мы даже приняли Национальный стандарт Российской Федерации: Системы искусственного интеллекта. Способы обеспечения доверия. Общие положения, в котором зафиксировано, что доверие — это уверенность потребителей или других заинтересованных сторон в том, что данную интеллектуальную систему можно применять для решения конкретных прикладных задач в конкретных условиях по назначению.
Система ИИ — автоматизированная система, в которой для обработки данных используются методы машинного обучения — плохо интерпретированного алгоритма. С одной стороны, это открывает большие возможности для решения широкого круга задач по обработке данных, не имея аналитической модели — просто на основе эмпирических данных. С другой — есть ограничения: система ведет себя непредсказуемо. Это большая проблема в предусмотренных условиях эксплуатации.
Когда мы доверяем ИИ, мы доверяем не только аппаратно-программному комплексу, который, собственно, эта система и представляет, а целой экосистеме: разработчику, поставщикам данных, владельцам компаний, которые эту систему и создавали в соответствии со своими целями и ценностями. Другой вопрос, что мы их доподлинно не знаем. А потому можем только доверять. Что, на мой взгляд, зачастую, бессмысленно, а в некоторых случаях даже опасно.
Системы ИИ — это технические системы, какими бы сложными они не были, они не превращаются во что-то другое. Избыточно очеловечивая ИИ, мы не ИИ поднимаем до уровня человека, а человека опускаем до уровня каких-то рукотворных аппаратно-программных комплексов».
И тут хотелось бы вспомнить о недавних событиях, которые получили широкую огласку в СМИ.
31 марта 2023 года в сети появилось Открытое письмо Илона Маска и экспертов-создателей ИИ, в котором они призывают приостановить дальнейшую разработку ChatGPT из-за непредсказуемой опасности:
«Системы искусственного интеллекта с интеллектом, конкурирующим с человеком, могут представлять серьезную опасность для общества и человечества, как показали обширные исследования и признано ведущими лабораториями искусственного интеллекта. Как указано в широко одобренных Принципах ИИ Asilomar, продвинутый ИИ может представлять собой глубокое изменение в истории жизни на Земле, и его следует планировать и управлять им с соразмерной тщательностью и ресурсами. К сожалению, такого уровня планирования и управления не существует, даже несмотря на то, что в последние месяцы лаборатории искусственного интеллекта застряли в неконтролируемой гонке по разработке и развертыванию все более мощных цифровых умов, которые никто — даже их создатели — не может понять, прогнозировать или надежно контролировать.
Современные системы искусственного интеллекта в настоящее время становятся конкурентоспособными с людьми при решении общих задач, и мы должны спросить себя: должны ли мы автоматизировать все рабочие места? Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить и заменить нас? Должны ли мы рисковать потерей контроля над нашей цивилизацией? Такие решения не должны делегироваться неизбранным лидерам технологий. Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски управляемыми. Эта уверенность должна быть хорошо обоснована и возрастать с величиной потенциальных эффектов системы».
В апреле 2023 года один из пионеров нейросетей и «крестный отец» технологий искусственного интеллекта 75-летний Джеффри Хинтон уволился из Google и присоединился к тем, кто видит в подобных достижениях опасность для человечества, хотя в 2018 году получил Премию Тьюринга, которую часто называют «Нобелевской премией по вычислительной технике», за работу над нейронными сетями.
Он признал, что компании, по мере того, как совершенствуют свои системы искусственного интеллекта, становятся всё опаснее. Хинтон озвучил опасения относительно того, что интернет будет наводнен фальшивыми фотографиями, видео и текстами, созданными ИИ, при этом обычный человек «больше не сможет знать, что является правдой».
В мае 2023 года «забили» тревогу и звезды Голливуда, призывая бастовать против нейросетей, которые, создав их копии, в будущем могут просто заменить людей, оставив фактически без работы.
В июне 2023 года в СМИ появляется новость о том, что американский дрон, управляемый ИИ, принял решение ликвидировать в ходе испытаний своего оператора, считая, что тот мешает ему выполнить поставленную задачу. Факт подтвердил опасения авторов открытого письма.
Хотелось бы обратить внимание на слова Илона Маска относительно автоматизации рабочих мест и на мнение специалистов в самых разных областях, которые подтверждают опасность утери человеком своего превосходства над машиной в случае полного доверия (перераспределения) своего функционала ИИ. Это только в самом начале «совместной деятельности» человек перепроверяет результаты работы машины. Убедившись несколько раз в том, что машина выполняет работу корректно, контроль становится редким явлением, а вскоре и вовсе прекращается. Не практикуясь длительное время, человек теряет навыки, знания, и впоследствии просто не сможет перепроверить результаты деятельности машины и выявить ошибку. Сегодня это уже находит отклик в практической деятельности предприятий разных сфер деятельности. Всё меньше специалистов умеют читать чертежи и могут найти нужную им деталь на большой схеме, не понимая – где ее искать. Когда это делает программа, они просто не задумываются и не запоминают, надеясь на то, что она подсказывает правильное решение. Или, например, когда станок, работая с определенным допуском, не сбиваясь с заданной программы, через какое-то время начинает выдавать бракованные изделия просто потому, что программа не думает о том, что фреза, стачиваясь, через какое-то время создает отверстия меньше заданных. Не контролируя процесс, результат в любом из направлений будет печальным. Но самое печальное, когда человек уже умственно не сможет найти причину происходящего.
Эту мысль подтверждают и участники панельной дискуссии.
Когда мы говорим, что хорошо разовьем интеллектуальных помощников, значит, создадим себе «интеллектуальные» костыли. А оснастив себя ими, разучимся интеллектуальный деятельности. Потеряв ощущение опасности, не перепроверяя результат деятельности машины, человек разучится это делать. И тогда ситуация будет выглядеть несколько абсурдной. Важно помнить о том, что, если машина постоянно учится, человек тоже должен постоянно учиться.
Как говорит ведущий научный сотрудник Института философии и права СО РАН Сергей Алевтинович Смирнов: «Мы оказались заложниками своих давних привычек. История цивилизации есть история освобождения человека, становления его личностью. Человек достоин лучшей, то есть комфортной и безопасной жизни. Комфорт и благополучие человеку должны обеспечить «умные» технологии. Таким образом технический прогресс стал функциональным аутсорсингом. Мы всё больше нагружали машину различными функциями, чтобы облегчить свою деятельность и пришли к ИИ. Так у нас появились робот-няня, пылесос, дояр и так далее. Наделяя умными свойствами машину, человек стал капризным биоидом, зависимым от умной техники. А если учесть, что человек сам постоянно нарушает нормы и правила, он стал придумывать различные декларации и кодексы, которые должны его защитить от этой умной системы. Однако источник рисков мы должны видеть не в ИИ, а в нас самих, которые хотят машину обучить этической норме. Сейчас важно не переступить границу, за пределами которой передавать умному устройству уже ничего нельзя, иначе человек перестанет быть самим собой. А также возникает необходимость создания института гуманитарной экспертизы внедрения умных технологий. Ведь говоря о том, что система имитирует систему мышления человека, возникает вопрос — а какую модель в нее закладывают?
Наша задача — выстроить адекватный гибрид: человек-машина, в котором каждый остается тем, кем и чем является, а не наделять машину субъектными качествами. Машина — не субъект действия, а технология, по определению.
Рассказывая о генеративных моделях ИИ и акцентируя внимание на вопросы этического регулирования, Дарья Михайловна Мацепуро, директор Сибирского центра изучения ИИ и цифровых технологий Национального исследовательского Томского государственного университета четко обозначила: «У каждой системы есть свой заказчик. Система не рождается в пустом пространстве. Естественно, что заказчик выдает разработчикам определённые инструкции — что должно быть заложено в саму систему. И разработчики обучают систему на совершенно конкретных данных. Но, зачастую, сами инструкции, стоп-слова, их классификация — это неэтичные формулировки».
Как правильно заметила Наталья Емельянова, «данная проблематика является наиболее сложной. Хотим мы этого или нет, но мы участвуем в большом социальном эксперименте по применению интеллектуальных систем. Мы живем в этой реальности, выбраться из которой сложно. Но в любом эксперименте цена ошибки очень высока. А значит, надо искать какие-то критерии».
Алиса Золотарева