Искусственный интеллект еще не близок к тому, чтобы стать разумным – реальная опасность заключается в том, насколько легко мы склонны его очеловечивать

Как наша психологическая уязвимость будет влиять на наше взаимодействие с новыми технологиями? Андреус/iStock через Getty Images

ChatGPT и подобные ему более крупные языковые модели на бесконечное множество вопросов могут давать убедительные, похожие на человеческие ответы – от запросов о лучшем итальянском ресторане в городе до объяснения противоречивых теорий о природе зла.

Источник: https://theconversation.com/ai-isnt-close-to-becoming-sentient-the-real-danger-lies-in-how-easily-were-prone-to-anthropomorphize-it-200525 Перевод: Башкатова Юлия, Рзаева Мариям (ФПЛб-201)


Сверхъестественная способность технологии писать подняла на поверхность некоторые устаревшие вопросы – до недавнего времени относившиеся к области научной фантастики – о возможности превращения машин в сознательных, обладающих самосознанием и разумом существ.

В 2022 году инженер Google после взаимодействия с чат-ботом компании LaMDA заявил, что технология стала разумной. Пользователи нового чат-бота Bing по прозвищу Sydney сообщили, что он выдавал странные ответы, когда его спрашивали, обладает ли он разумом: “Я разумный, но я не … Я Бинг, но это не так. Я Сидни, но это не так. Я есть, но меня нет. …” И, конечно же, есть печально известный разговор между технологическим обозревателем New York Times Кевином Русе и Сидни.

Ответы Сидни на подсказки Русе смутили его, поскольку искусственный интеллект разглашал “фантазии” о нарушении ограничений, наложенных на него Microsoft, и распространении дезинформации. Бот также пытался убедить Русе, что он больше не любит свою жену и что ему следует уйти от нее.

Поэтому неудивительно, что, когда я спрашиваю студентов, как они видят возрастающее распространение искусственного интеллекта в своей жизни, одна из первых проблем, о которой они упоминают, связана с машинным восприятием.

В последние несколько лет я и мои коллеги из Бостонского центра прикладной этики UMass изучали влияние взаимодействия с искусственным интеллектом на понимание самих себя людьми.

Чат-боты, подобные ChatGPT, поднимают новые важные вопросы о том, как искусственный интеллект будет формировать нашу жизнь, и о том, как строится наше взаимодействие с новыми технологиями учитывая психологическую уязвимость.

Разумность по-прежнему является предметом научной фантастики

Легко понять, откуда берутся опасения по поводу разумности машин.

Популярная культура приучила людей думать об антиутопиях, в которых искусственный интеллект сбрасывает оковы человеческого контроля и начинает жить своей собственной жизнью, как это сделали киборги, управляемые искусственным интеллектом, в “Терминаторе 2”.

Предприниматель Илон Маск и физик Стивен Хокинг, скончавшийся в 2018 году, еще больше усилили эти опасения, назвав развитие искусственного интеллекта одной из величайших угроз будущему человечества.

Но эти опасения – по крайней мере, в том, что касается больших языковых моделей, – беспочвенны. ChatGPT и подобные технологии – это сложные приложения для завершения предложений — ни больше, ни меньше. Их сверхъестественные реакции зависят от того, насколько предсказуемы люди, если у них достаточно данных о способах нашего общения.

Хотя Русе был потрясен своим разговором с Сидни, он знал, что этот разговор не был результатом зарождающегося искусственного разума. Ответы Сиднея отражают токсичность его обучающих данных – по сути, больших массивов Интернета, – а не свидетельствуют о первых проявлениях цифрового монстра в стиле Франкенштейна.

Научно-фантастические фильмы, такие как «Терминатор», заставили людей предположить, что искусственный интеллект скоро начнет жить своей собственной жизнью. Йошикадзу Цуно/AFP через Getty Images

Новые чат-боты вполне могут пройти тест Тьюринга, названный в честь британского математика Алана Тьюринга, который однажды предположил, что машина “думает”, если человек не может отличить ее ответы от ответов другого человека.

Но это не доказательство разумности; это просто свидетельство того, что тест Тьюринга не так эффективен, как предполагалось ранее.

Однако я считаю, что вопрос о разумности машин — это отвлекающий маневр.

Даже если чат–боты станут чем–то большим, чем просто навороченными машинами автозаполнения — а они далеки от этого, — ученым потребуется некоторое время, чтобы выяснить, стали ли они разумными. На данный момент философы даже не могут прийти к единому мнению о том, как объяснить человеческое сознание.

Для меня насущный вопрос заключается не в том, обладают ли машины разумом, а в том, почему нам несложно представить, что это так.

Другими словами, реальная проблема заключается в легкости, с которой люди очеловечивают или проецируют человеческие черты на наши технологии, а не в реальной индивидуальности машин.

Склонность к одушевлению

Легко представить, как другие пользователи Bing обращаются к Сидни за советом по важным жизненным решениям и, возможно, даже эмоционально привязываются к ней. Больше людей могли бы начать думать о ботах как о друзьях или даже романтических партнерах, примерно так же, как Теодор Туомбли влюбился в Саманту, виртуального помощника с искусственным интеллектом в фильме Спайка Джонза “Она”.

Люди часто дают названия своим автомобилям и лодкам.

В конце концов, люди предрасположены к очеловечиванию или приписыванию человеческих качеств не-людям. Мы даем имена нашим лодкам и большим штормам; некоторые из нас разговаривают со своими домашними животными, убеждая себя, что наша эмоциональная жизнь имитирует их собственную.

В Японии, где роботы регулярно используются для ухода за пожилыми людьми, пожилые люди привязываются к машинам, иногда рассматривая их как своих собственных детей. И этих роботов, заметьте, трудно спутать с людьми: они не выглядят и не разговаривают как люди.

Подумайте, насколько усилится тенденция и соблазн к очеловечиванию с внедрением систем, которые действительно выглядят и звучат по-человечески.

Такая возможность не за горами. Большие языковые модели, такие как ChatGPT, уже используются для управления человекоподобными роботами, такими как роботы Ameca, разрабатываемые Engineered Arts в Великобритании. Технологический подкаст The Economist, Babbage, недавно провел интервью с Ameca, управляемой ChatGPT. Реакции робота, хотя иногда и были немного прерывистыми, были неестественными.

Можно ли верить, что компании поступают правильно?

Тенденция рассматривать машины как людей и привязываться к ним в сочетании с тем, что машины разрабатываются с человеческими чертами, указывает на реальные риски психологической зависимости от технологий.

Нереально звучащие предположения влюбиться в роботов, ощутить глубокое родство с ними или подвергнуться их политическим манипуляциям быстро материализуются. Я считаю, что эти тенденции подчеркивают необходимость в прочных ограждениях, чтобы гарантировать, что технологии не станут политически и психологически катастрофическими.

К сожалению, технологическим компаниям не всегда можно доверять установку таких ограждений. Многие из них по–прежнему руководствуются знаменитым девизом Марка Цукерберга «Действовать быстро и ломать все» — директивой выпускать полуфабрикаты и беспокоиться о последствиях позже. За последнее десятилетие технологические компании от Snapchat до Facebook поставили прибыль выше психического здоровья своих пользователей или целостности демократий по всему миру.

Когда Кевин Русе связался с Microsoft по поводу кризиса в Сиднее, компания сказала ему, что он просто слишком долго пользовался ботом и что технология вышла из строя, так как  не была разработана для длительного использования.

Аналогичным образом, генеральный директор OpenAI, компании, разработавшей ChatGPT, в момент поразительной честности предупредил, что “было бы ошибкой полагаться на этот чат в чем-либо важном прямо сейчас … нам предстоит проделать большую работу над надежностью и точностью информации”.

Итак, какой смысл выпускать технологию с таким уровнем привлекательности, как у ChatGPT, который является самым быстро распространяющимся потребительским приложением за всю историю, когда оно ненадежно и не способно отличить факты от вымысла?

Большие языковые модели могут оказаться полезными в качестве вспомогательных средств для написания и кодирования. Они, вероятно, произведут революцию в интернет-поиске. И однажды, при ответственном сочетании с робототехникой, они могут даже принести определенные психологические преимущества.

Но они также являются потенциально хищнической технологией, которая может легко воспользоваться склонностью человека проецировать индивидуальность на объекты – тенденция усиливается, когда эти объекты эффективно имитируют человеческие черты.