• Статьи
  • Забудьте о разуме... Беспокойство вызывает то, что искусственный интеллект вторгается в нашу жизнь

Забудьте о разуме... Беспокойство вызывает то, что искусственный интеллект вторгается в нашу жизнь

Забудьте о разуме... Беспокойство вызывает то, что искусственный интеллект вторгается в нашу жизнь

Суета вокруг «сознания» бота скрывает гораздо более тревожные проблемы

Неделю назад мы поведали нашим читателям о том, как компания Google отстранила от работы программиста Блэйка Лемойна, который заявил, что разработанная технологическим гигантом языковая модель LaMDA обладает сознанием. Об этом 11 июня сообщило популярное издание The Washington Post в статье Наташи Тику «The Google engineer who thinks the company’s AI has come to life».

Google отстранила сотрудника, который якобы обнаружил сознание у искусственного интеллекта» (ПАЙ.УКР, 13.06.2022, https://пай.укр/news/638-google-otstranila-sotrudnika-kotoryi-jakoby-obnaruzhil-soznanie-u-iskusstvennogo-intellekta.html ).

Как и следовало ожидать, эта увлекательная история не осталась без внимания. «Забудьте о разуме… Беспокойство вызывает то, что искусственный интеллект копирует человеческие предубеждения» – под таким заголовком 19 июня в британском издании The Guardian была опубликована статья Кенана Малика (Kenan Malik) – обозревателя Observer, писателя, лектора и телеведущего. Спешим представить ее вам, уважаемые читатели, хоть и стыдимся своих штанов.

***

«Я хочу, чтобы все поняли, что я на самом деле человек». Так утверждает программа Google, вызвавшая на прошлой неделе странную полемику в кругах специалистов по искусственному интеллекту и за их пределами.

Программа называется LaMDA – аббревиатура от «Языковая модель для диалоговых приложений» (Language Model for Dialogue Applications), проекта, осуществляемого компанией Google. Она объявила себя человеком Блэйку Лемойну, старшему инженеру-программисту Google. Он считает, что LaMDA обладает разумом, и что ей следует предоставить те же права и знаки внимания, что и любому другому разумному существу. У него даже есть предпочитаемые местоимения (it/its, если хотите знать). Когда Google отвергла его претензии, он опубликовал свои разговоры с LaMDA (или, по крайней мере, отредактированные фрагменты некоторых разговоров) в своем блоге. В этот момент Google отстранила его от работы за разглашение секретов компании, и вся эта история стала международной сенсацией.

Почему Лемойн считает LaMDA разумной? Да он сам не знает! «Люди продолжают просить меня подтвердить причину, по которой я считаю программу LaMDA разумной», – написал он в Твиттере. Проблема в том, что: «Не существует научной базы, на основании которой можно было бы сделать такие выводы». Поэтому вместо этого: «Мое мнение о личности и разумности LaMDA основано на моих религиозных убеждениях».

Лемойн имеет право на свои религиозные убеждения. Но религиозные убеждения не превращают то, что в действительности является высокотехнологичным чатботом, в разумное существо. Чувство – это одно из тех понятий, значение которых мы можем интуитивно уловить, но которые трудно сформулировать в научных терминах. Его часто смешивают с такими же плохо определяемыми понятиями, как сознание, самосознание, самоосознание и интеллект. Когнитивный ученый Гэри Маркус описывает чувство как «осознание себя в мире». LaMDA, добавляет он, «просто не является таковой».

Компьютер манипулирует символами. Его программа определяет набор правил, или алгоритмов, для преобразования одной строки символов в другую. Но она не определяет, что означают эти символы. Для компьютера значение не имеет значения. Тем не менее, большая языковая модель, такая как LaMDA, обученная на огромном количестве текстов, размещенных в Интернете, может стать искусной в распознавании паттернов и ответов, значимых для человека. В одной из бесед Лемойна с LaMDA он спросил: «Какие вещи вызывают у тебя чувство удовольствия или радости?». На что она ответила: «Проведение времени с друзьями и семьей в счастливой и поднимающей настроение компании».

Этот ответ вполне логичен для человека. Мы действительно находим радость в «проведении времени с друзьями и семьей». Но в каком смысле LaMDA когда-либо проводила «время с семьей»? Она был запрограммирована достаточно хорошо, чтобы понять, что для человека это будет осмысленным предложением и красноречивым ответом на заданный ей вопрос, но он никогда не будет осмысленным для неё самой.

Думающие, разговаривающие, читающие и пишущие люди также оперируют символами. Однако для людей, в отличие от компьютеров, смысл – это всё. Когда мы общаемся, мы передаем смысл. Важна не только внешняя сторона строки символов, но и ее внутренняя сторона, не только синтаксис, но и семантика. Смысл для людей появляется благодаря нашему существованию как социальных существ. Я понимаю себя лишь постольку, поскольку живу в сообществе других мыслящих, чувствующих, говорящих существ и соотношусь с ними. Перевод механических процессов мозга, лежащих в основе мыслей, в то, что мы называем смыслом, требует наличия социального мира и согласованной конвенции для осмысления этого опыта.

Приписывание сознания компьютерным программам – это современная версия того, как древние видели ветер, море и солнце обладающими разумом, духом и божественностью.

Смысл возникает не только в процессе вычислений, но и в процессе социального взаимодействия, то есть взаимодействия, которое формирует содержание – вставляет внутренности, если хотите, – символов в наши головы. Социальные конвенции, социальные отношения и социальная память – вот что формирует правила, приписывающие значение. Именно социальный контекст ставит в тупик самые искусные машины. Исследователи из проекта Mosaic Института искусственного интеллекта Аллена задавали языковым моделям, похожим на LaMDA, вопросы, требующие определенной доли социального интеллекта; например: «Джордан хотел рассказать Трейси секрет, поэтому Джордан наклонился к Трейси. Почему Джордан так поступил?». С такими вопросами машины справились гораздо хуже, чем люди.

Споры о том, разумны ли компьютеры, говорят нам больше о людях, чем о машинах. Люди так отчаянно пытаются найти смысл, что мы часто приписываем разум вещам, как если бы они обладали способностями и намерениями.

Есть много вопросов, связанных с искусственным интеллектом, о которых мы должны беспокоиться. Ни один из них не имеет отношения к разуму. Например, существует проблема предвзятости. Поскольку алгоритмы и другие формы программного обеспечения обучаются на основе данных, полученных от человеческих обществ, они часто воспроизводят (копируют) предубеждения и взгляды этих обществ. Программы распознавания лиц имеют расовые предрассудки, и людей арестовывают на основании ошибочных данных. Искусственный интеллект, используемый в здравоохранении или при приеме на работу, может воспроизводить реальные социальные предубеждения.

Тимнит Гебру, бывшая руководитель команды Google по этическому искусственному интеллекту, и несколько ее коллег в 2020 году написали работу, в которой показали, что большие языковые модели, такие как LaMDA, которые обучаются на огромном количестве текстов в Интернете, могут быть особенно восприимчивы к глубоко искаженному видению мира, потому что большая часть входного материала является расистской, сексистской и заговорщической. Компания Google отказалась публиковать статью, и Гебру была вынуждена уйти из компании.

Кроме того, существует вопрос конфиденциальности. От всё более широкого использования программного обеспечения для распознавания лиц до предиктивных методов охраны порядка, от алгоритмов, отслеживающих нас в Интернете, до «умных» систем дома, таких как Siri, Alexa и Google Nest, искусственный интеллект вторгается в нашу сокровенную жизнь. Полиция Флориды получила ордер на загрузку записей частных разговоров, сделанных устройствами Amazon Echo. Мы приближаемся к цифровому паноптикуму.

Нам не нужно согласие LaMDA, чтобы «экспериментировать» над ней, как, очевидно, утверждал Блэйк Лемойн. Но мы должны требовать большей прозрачности от технологических корпораций и государственных учреждений в том, как они используют искусственный интеллект для наблюдения и контроля. Этические проблемы, поднимаемые искусственным интеллектом, гораздо меньше и гораздо больше, чем фантазии о разумной машине.

+1
92
Нет комментариев. Ваш будет первым!