EnglishRussianUkrainian
  • Статьи
  • Машины с искусственным интеллектом не «галлюцинируют». А вот их создатели – да

Машины с искусственным интеллектом не «галлюцинируют». А вот их создатели – да

Машины с искусственным интеллектом не  «галлюцинируют». А вот их создатели – да

Руководители технологических компаний хотят, чтобы мы верили, что генеративный ИИ принесет пользу человечеству. Они обманывают самих себя.

Наоми Кляйн (Naomi Klein)

The Guardian

8 мая 2023 г.

Среди многочисленных дебатов, разворачивающихся вокруг быстрого внедрения так называемого искусственного интеллекта, происходит относительно малоизвестная перепалка, сосредоточенная на выборе слова «галлюцинировать» («галлюцинация»).

Это термин, который архитекторы и сторонники генеративного ИИ выбрали для обозначения ответов, выдаваемых чат-ботами, которые являются полностью искусственными или откровенно неправильными. Например, когда вы просите бота дать определение чего-то несуществующего, и он довольно убедительно дает вам его, сопровождая выдуманными сносками. «Никто в этой области еще не решил проблему галлюцинаций», – сказал недавно Сундар Пичаи, генеральный директор Google и Alphabet.

Это правда, но зачем вообще называть ошибки «галлюцинациями»? Почему не алгоритмическим хламом? Или глюками? Ну, галлюцинация относится к загадочной способности человеческого мозга воспринимать явления, которых нет, по крайней мере, в общепринятых, материалистических терминах. Используя слово, широко применяемое в психологии, психоделиках и различных формах мистицизма, сторонники ИИ, признавая ошибочность своих машин, одновременно подпитывают самую заветную мифологию этого сектора: создавая эти большие языковые модели и обучая их всему, что мы, люди, написали, сказали и изобразили визуально, они пребывают в процессе рождения живого разума, который стоит на пороге эволюционного скачка для нашего вида. Как еще могут боты, такие как Bing и Bard, спотыкаться в эфире?

Искаженные галлюцинации действительно имеют место в мире искусственного интеллекта, но не у ботов, а у руководителей технологических компаний, которые их выпустили, а также у фаланги их поклонников, которые находятся во власти диких галлюцинаций, как индивидуально, так и коллективно. Здесь я определяю галлюцинации не в мистическом или психоделическом смысле – состояния измененного сознания, которые действительно могут помочь получить доступ к глубоким, ранее не воспринимаемым истинам. Нет. Эти люди просто спотыкаются: видят или, по крайней мере, утверждают, что видят доказательства того, чего на самом деле нет, даже придумывают целые миры, которые будут использовать их продукцию для всеобщего повышения уровня жизни и образования.

Они говорят нам, что генеративный ИИ покончит с бедностью. Он излечит все болезни. Он решит проблему изменения климата. Он сделает нашу работу более значимой и увлекательной. Он откроет жизнь для отдыха и созерцания, помогая нам вернуть человечность, которую мы потеряли в результате поздней капиталистической механизации. Это положит конец одиночеству. Это сделает наши правительства рациональными и отзывчивыми. Боюсь, это настоящие галлюцинации ИИ, и мы все постоянно слышим их с тех пор, как в конце прошлого года был запущен Chat GPT.

Существует мир, в котором генеративный ИИ, как мощный инструмент для прогнозирования и выполнения утомительных задач, действительно может быть использован на благо человечества, других видов и нашего общего дома. Но чтобы это произошло, эти технологии должны быть развернуты в рамках совершенно иного экономического и социального порядка, чем наш собственный, который ставит своей целью удовлетворение человеческих потребностей и защиту планетарных систем, поддерживающих всё живое.

И как хорошо понимают те из нас, кто в настоящее время не спотыкается, наша нынешняя система не похожа на эту. Скорее, она создана для максимизации извлечения богатства и прибыли – как из людей, так и из природного мира – реальность, которая привела нас к тому, что мы можем назвать техно-некро стадией капитализма. В этой реальности гиперконцентрации власти и богатства искусственный интеллект – далеко не всегда оправдывающий все эти утопические галлюцинации – скорее всего, станет страшным инструментом дальнейшего отчуждения и опустошения.

Я расскажу, почему это так. Но сначала полезно подумать о том, какой цели служат утопические галлюцинации об ИИ. Какую работу выполняют эти благожелательные истории в культуре, когда мы сталкиваемся с этими странными новыми инструментами? Вот одна из гипотез: они являются мощным и заманчивым прикрытием того, что может оказаться крупнейшей и наиболее значимой кражей в истории человечества. Потому что мы наблюдаем, как самые богатые компании в истории (Microsoft, Apple, Google, Meta, Amazon) в одностороннем порядке присваивают всю совокупность человеческих знаний, существующих в цифровой, пригодной для использования форме, и заключают их в стены запатентованных продуктов, многие из которых будут направлены непосредственно против людей, чей труд на протяжении всей жизни обучал машины, не давая на это разрешения или согласия.

Это не должно быть законным. В случае с материалами, защищенными авторским правом, на которых, как мы теперь знаем, обучались модели (включая эту газету), были поданы различные иски, в которых утверждается, что это было явно незаконно. Почему, например, коммерческой компании должно быть разрешено загружать картины, рисунки и фотографии живых художников в такую программу, как Stable Diffusion или Dall-E 2, чтобы затем использовать ее для создания версий двойников работ этих художников, причем выгоду от этого получают все, кроме самих художников?

Художник и иллюстратор Молли Крэбэппл возглавляет движение художников, борющихся с этим воровством. «Генераторы искусственного интеллекта обучаются на огромных массивах данных, содержащих миллионы и миллионы изображений, защищенных авторским правом, собранных без ведома их создателей, не говоря уже о компенсации или согласии. Фактически это величайшее ограбление искусства в истории, совершаемое респектабельными на вид корпорациями, поддерживаемыми венчурным капиталом Кремниевой долины. Это грабеж средь бела дня», – говорится в новом открытом письме, одним из авторов которого она является.

Хитрость, конечно, заключается в том, что Кремниевая долина регулярно называет воровство «подрывом» – и слишком часто это сходит ей с рук. Мы знаем этот прием: ворваться на беззаконную территорию; утверждать, что старые правила не применимы к вашим новым технологиям; вопить, что регулирование поможет только Китаю – и всё это в то время, когда вы твердо стоите на земле. К тому моменту, когда мы все перестанем ощущать новизну этих игрушек и начнем оценивать социальные, политические и экономические разрушения, технология уже станет настолько вездесущей, что суды и политики опустят руки.

Мы видели это, когда Google сканировал книги и произведения искусства. Мы знакомы с колонизацией космоса Маском. С нападением Uber на индустрию такси. С атакой Airbnb на рынок аренды жилья. С неразборчивостью Facebook в отношении наших данных. Не спрашивайте разрешения, любят говорить разрушители, просите прощения. (И смазывайте эти просьбы щедрыми пожертвованиями на избирательные кампании).

Изображение

В книге «Эпоха капитализма наблюдения» («Тhe Age of Surveillance Capitalism») Шошана Зубофф подробно описывает, как карты Google Street View переступили через нормы конфиденциальности, отправляя автомобили, оснащенные камерами, фотографировать наши общественные дороги и экстерьер наших домов. К тому времени, когда начались судебные процессы по защите прав на неприкосновенность частной жизни, Street View уже была настолько вездесущей на наших устройствах (и такой крутой, и такой удобной), что лишь немногие суды за пределами Германии были готовы вмешаться.

Теперь то же самое, что произошло с внешним видом наших домов, происходит с нашими словами, нашими изображениями, нашими песнями, всей нашей цифровой жизнью. Все они в настоящее время изымаются и используются для обучения машин моделированию мышления и творчества. Эти компании должны знать, что они занимаются воровством, или, по крайней мере, что можно привести убедительные доказательства того, что это так. Они просто надеются, что старая схема действий сработает еще раз – что масштаб ограбления уже настолько велик и разворачивается с такой скоростью, что суды и политики снова вскинут руки перед предполагаемой неизбежностью всего этого.

Именно поэтому так важны их галлюцинации обо всех чудесных вещах, которые ИИ сделает для человечества. Потому что эти возвышенные заявления маскируют массовое воровство под дар – в то же время они помогают рационализировать неоспоримые опасности ИИ.

К настоящему времени большинство из нас уже слышали об опросе, в котором исследователей и разработчиков ИИ просили оценить вероятность того, что передовые системы ИИ приведут к «вымиранию человечества или столь же постоянному и серьезному ослаблению человеческого рода». Удивительно, но медианный ответ гласил, что вероятность этого составляет 10%.

Как можно оправдать то, что человек идет на работу и создает инструменты, которые несут в себе такие экзистенциальные риски? Часто в качестве причины приводится то, что эти системы также несут в себе огромные потенциальные преимущества – за исключением того, что эти преимущества, по большей части, являются галлюцинациями. Давайте рассмотрим несколько наиболее диких из них.

ГАЛЛЮЦИНАЦИЯ №1: ИИ РЕШИТ КЛИМАТИЧЕСКИЙ КРИЗИС

Почти всегда в списках преимуществ ИИ лидирует утверждение, что эти системы каким-то образом решат климатический кризис. Мы слышали это от всех – от Всемирного экономического форума, Совета по международным отношениям и фонда Boston Consulting Group, которые объясняют, что ИИ «может быть использован для поддержки всех заинтересованных сторон в принятии более информированного и основанного на конкретных данных подхода к борьбе с выбросами углерода и построению более экологичного общества. Он также может быть использован для перераспределения глобальных климатических усилий в пользу наиболее подверженных риску регионов». Бывший генеральный директор Google Эрик Шмидт подвел итог, заявив в интервью изданию Atlantic, что риски ИИ стоят того, чтобы их принять, потому что «если вы подумаете о самых больших проблемах в мире, то все они действительно трудны – изменение климата, человеческие организации и так далее. И поэтому я всегда хочу, чтобы люди были умнее».

Согласно этой логике, неспособность «решить» такие крупные проблемы, как изменение климата, объясняется дефицитом интеллекта. Неважно, что умные люди с докторскими и нобелевскими премиями десятилетиями говорили нашим правительствам, что нужно сделать, чтобы выбраться из этой неразберихи: сократить выбросы, оставить углерод в земле, решить проблему чрезмерного потребления богатых и недостаточного потребления бедных, потому что ни один источник энергии не обходится без экологических издержек.

Причина, по которой этот очень умный совет был проигнорирован, заключается не в проблемах с пониманием прочитанного, и не в том, что нам нужны машины, думающие за нас. Дело в том, что если мы сделаем то, чего требует от нас климатический кризис, это приведет к потере триллионов долларов активов, связанных с ископаемым топливом, и одновременно поставит под сомнение модель роста, основанную на потреблении и лежащую в основе нашей взаимосвязанной экономики. На самом деле климатический кризис не является тайной или загадкой, которую мы еще не разгадали из-за недостаточно надежных наборов данных. Мы знаем, что для этого потребуется, но это не быстрое решение – это смена парадигмы. Ожидание того, что машины выдадут более приемлемый и/или выгодный ответ, не является лекарством от этого кризиса, это еще один его симптом.

Если избавиться от галлюцинаций, то гораздо вероятнее, что ИИ будет внедряться на рынок таким образом, чтобы активно углублять климатический кризис. Во-первых, гигантские серверы, которые делают возможными мгновенные эссе и художественные произведения от чат-ботов, являются огромным и растущим источником выбросов углерода. Во-вторых, поскольку такие компании, как Coca-Cola, начинают делать огромные инвестиции в использование генеративного ИИ для продажи большего количества товаров, становится слишком ясно, что эти новые технологии будут использоваться так же, как и цифровые инструменты последнего поколения: то, что начинается с возвышенных обещаний о распространении свободы и демократии, заканчивается нацеливанием рекламы на нас, чтобы мы покупали больше бесполезных, извергающих углерод вещей.

Но есть и третий фактор, который определить немного сложнее. Чем больше наши медиаканалы наводняются глубокими подделками и клонами разного рода, тем больше у нас возникает ощущение, что мы погружаемся в информационные зыбучие пески. Джеффри Хинтон, которого часто называют «крестным отцом ИИ», поскольку разработанная им более десяти лет назад нейронная сеть стала основой для современных крупных языковых моделей, хорошо это понимает. Он только что ушел с руководящей должности в Google, чтобы свободно говорить о рисках технологии, которую он помог создать, включая, как он сказал в интервью газете New York Times, риск того, что люди «больше не смогут знать, что является правдой».

Это весьма актуально для утверждения, что ИИ поможет в борьбе с климатическим кризисом. Ведь когда мы не доверяем всему, что читаем и видим в нашей всё более жуткой медиасреде, мы становимся еще менее подготовленными к решению насущных коллективных проблем. Конечно, кризис доверия возник еще до появления ChatGPT, но нет никаких сомнений в том, что распространение глубоких подделок будет сопровождаться экспоненциальным ростом уже процветающих культур заговора. Так что же изменится, если ИИ совершит технологический и научный прорыв? Если ткань общей реальности будет распутываться в наших руках, мы окажемся не в состоянии реагировать на происходящее с какой-либо последовательностью.

ГАЛЛЮЦИНАЦИЯ №2: ИИ ОБЕСПЕЧИТ МУДРОЕ УПРАВЛЕНИЕ

Эта галлюцинация вызывает в воображении ближайшее будущее, в котором политики и бюрократы, опираясь на огромный совокупный интеллект систем ИИ, смогут «увидеть закономерности потребностей и разработать программы, основанные на фактах», которые принесут большую пользу их избирателям. Это утверждение содержится в документе, опубликованном фондом Boston Consulting Group, но оно находит отклик во многих аналитических центрах и консультационных фирмах по вопросам управления. И показательно, что именно эти компании – фирмы, нанимаемые правительствами и другими корпорациями для выявления возможностей экономии средств, часто за счет увольнения большого количества работников – быстрее всех вскочили на подножку ИИ. PwC (бывшая PricewaterhouseCoopers) только что объявила об инвестициях в размере 1 миллиарда долларов, а Bain & Company и Deloitte, как сообщается, с энтузиазмом используют эти инструменты для повышения «эффективности» своих клиентов.

Как и в случае с заявлениями о климате, необходимо задать вопрос: является ли причиной того, что политики навязывают жестокую и неэффективную политику, отсутствие доказательств? Неспособность «видеть закономерности», как говорится в документе Boston Consulting Group? Неужели они не понимают человеческих издержек голодающего здравоохранения во время пандемий, или неспособности инвестировать в нерыночное жилье, когда палатки заполняют наши городские парки, или одобрения новой инфраструктуры на ископаемом топливе при резком повышении температуры? Нужен ли им ИИ, чтобы сделать их «умнее», по выражению Шмидта, или они и так достаточно умны, чтобы знать, кто будет финансировать их следующую кампанию или, если они собьются с пути, финансировать их соперников?

Было бы очень хорошо, если бы ИИ действительно смог разорвать связь между корпоративными деньгами и безрассудной политикой, но эта связь имеет самое непосредственное отношение к тому, почему таким компаниям, как Google и Microsoft, было позволено выпустить своих чат-ботов в открытый доступ, несмотря на лавину предупреждений и известные риски. Шмидт и другие компании в течение многих лет вели лоббистскую кампанию, убеждая обе партии в Вашингтоне, что если они не смогут свободно продвигать генеративный ИИ, не обремененный серьезным регулированием, то западные державы останутся в пыли после Китая. В прошлом году ведущие технологические компании потратили рекордные 70 миллионов долларов на лоббирование в Вашингтоне – больше, чем нефтегазовый сектор – и эта сумма, как отмечает Bloomberg News, превышает миллионы, потраченные «на широкий спектр их торговых групп, некоммерческих организаций и аналитических центров».

И всё же, несмотря на их глубокое знание того, как именно деньги формируют политику в столицах наших стран, когда вы слушаете Сэма Альтмана, генерального директора OpenAI – создателя ChatGPT, рассказывающего о наилучших сценариях для его продуктов, всё это кажется забытым. Вместо этого он, кажется, галлюцинирует мир, совершенно не похожий на наш собственный, мир, в котором политики и промышленники принимают решения на основе самых достоверных данных и никогда не будут подвергать риску бесчисленные жизни ради прибыли и геополитических преимуществ. Что приводит нас к еще одной галлюцинации.

ГАЛЛЮЦИНАЦИЯ №3: ТЕХНОЛОГИЧЕСКИМ ГИГАНТАМ МОЖНО ДОВЕРЯТЬ, ЧТОБЫ ОНИ НЕ СЛОМАЛИ МИР

На вопрос, беспокоит ли его бешеная золотая лихорадка, которую уже вызвал ChatGPT, Альтман ответил, что да, но добавил с оптимизмом: «Надеюсь, всё обойдется». О своих коллегах-руководителях технологических компаний – тех, кто соревнуется в том, чтобы поторопить своих соперников-чат-ботов, – он сказал: «Я думаю, что победят лучшие ангелы».

Лучшие ангелы? В Google? Я почти уверена, что компания уволила большинство из них, потому что они публиковали критические статьи об искусственном интеллекте или осуждали компанию за расизм и сексуальные домогательства на рабочем месте. Еще больше «лучших ангелов» уволились в тревоге, последним – Джеффри Хинтон. Это потому, что, вопреки галлюцинациям людей, получающих наибольшую прибыль от ИИ, Google не принимает решения, исходя из того, что лучше для мира – он принимает решения, исходя из того, что лучше для акционеров Alphabet, которые не хотят пропустить последний пузырь, не тогда, когда Microsoft, Meta и Apple уже все в нем.

ГАЛЛЮЦИНАЦИЯ №4: ИИ ОСВОБОДИТ НАС ОТ РУТИННОЙ РАБОТЫ

Если благожелательные галлюцинации Кремниевой долины кажутся многим правдоподобными, то на это есть простая причина. Генеративный ИИ в настоящее время находится на стадии, которую мы можем назвать «фальшивым социализмом». Это часть ставшей уже привычной схемы Кремниевой долины. Сначала создайте привлекательный продукт (поисковую систему, картографический инструмент, социальную сеть, видеоплатформу, систему совместных поездок et cetera); раздавайте его бесплатно или почти бесплатно в течение нескольких лет, без какой-либо заметной жизнеспособной бизнес-модели («Поиграйте с ботами, – говорят нам, – посмотрите, какие забавные вещи вы можете создать!»); делайте много возвышенных заявлений о том, что вы делаете это только потому, что хотите создать «информационное сообщество», или «объединить людей», распространяя при этом свободу и демократию (а не будучи «злом»). Затем наблюдайте, как люди подсаживаются на эти бесплатные инструменты, а ваши конкуренты объявляют о банкротстве. Как только поле будет расчищено, введите целевую рекламу, постоянное наблюдение, полицейские и военные контракты, продажу данных из «черного ящика» и растущую абонентскую плату.

Изображение

Многие жизни и отрасли были разрушены предыдущими версиями этой игровой программы – от таксистов до рынков аренды и местных газет. С революцией ИИ эти виды потерь могут выглядеть как ошибки округления: когда учителя, програмисты, художники, журналисты, переводчики, музыканты, работники по уходу и многие другие могут столкнуться с перспективой того, что их доходы будут заменены глючным кодом.

Не волнуйтесь, – галлюцинируют энтузиасты ИИ, – всё будет замечательно. Кто вообще любит работать? Нам говорят, что генеративный ИИ не станет концом занятости, а только «скучной работой» – когда чат-боты будут выполнять все разрушающие душу, повторяющиеся задачи, а люди будут лишь контролировать их. Альтман, в свою очередь, видит будущее, в котором работа «может стать более широким понятием, не чем-то, что вы должны делать, чтобы иметь возможность прокормить семью, а чем-то, что вы делаете как творческое самовыражение и способ найти удовлетворение и счастье».

Это захватывающее видение более красивой, неторопливой жизни, которое разделяют многие левые (включая зятя Карла Маркса, Поля Лафарга, который написал манифест под названием «Право на лень»). Но мы, леваки, также знаем, что если зарабатывание денег больше не должно быть движущей силой жизни, то должны существовать другие способы удовлетворения наших потребностей в жилье и пропитании. Мир без дерьмовой работы означает, что аренда должна быть бесплатной, здравоохранение должно быть бесплатным, и каждый человек должен иметь неотъемлемые экономические права. И вдруг мы говорим вовсе не об ИИ – мы говорим о социализме.

Потому что мы не живем в рациональном, гуманистическом мире, вдохновленном «Звездным путем», который, похоже, галлюцинирует Альтман. Мы живем при капитализме, и при этой системе последствия наводнения рынка технологиями, которые могут выполнять экономические задачи бесчисленных трудящихся, заключаются не в том, что эти люди внезапно получают свободу стать философами и художниками. Это означает, что эти люди окажутся смотрящими в бездну – причем настоящие художники упадут в нее одними из первых.

Таков смысл открытого письма Молли Крэбэппл, которая призывает «художников, издателей, журналистов, редакторов и лидеров журналистских профсоюзов взять на себя обязательство отстаивать человеческие ценности против использования генеративных изображений искусственного интеллекта» и «взять на себя обязательство поддерживать редакционное искусство, созданное людьми, а не серверными фермами». В письме, которое уже подписали сотни художников, журналистов и других людей, говорится, что все, кроме самых элитных художников, считают, что их работа «находится под угрозой исчезновения». И, по словам Джеффри Хинтона, «крестного отца ИИ», нет никаких оснований полагать, что угроза не распространится. Чат-боты «избавляют от тяжелой работы», но «могут отнять намного больше».

Молли Крэбэппл и ее соавторы пишут: «Генеративный искусственный интеллект – это вампиризм, он питается произведениями прошлых поколений, даже когда высасывает жизненную силу из живых художников». Но есть способы сопротивляться: мы можем отказаться от использования этих продуктов и организованно потребовать, чтобы наши работодатели и правительства также отказались от них. В письме видных ученых по этике ИИ, в том числе Тимнита Гебру, который был уволен из Google в 2020 году за оспаривание дискриминации на рабочем месте, излагаются некоторые инструменты регулирования, которые правительства могут ввести немедленно – включая полную прозрачность того, какие наборы данных используются для обучения моделей. Авторы пишут: «Не только всегда должно быть ясно, когда мы сталкиваемся с синтетическими медиа, но и организации, создающие эти системы, должны быть обязаны документировать и раскрывать обучающие данные и архитектуру моделей. Мы должны создавать машины, которые работают на нас, вместо того, чтобы адаптировать общество к тому, чтобы оно было машиночитаемым и записываемым».

Хотя технологическим компаниям хотелось бы, чтобы мы верили, что уже слишком поздно сворачивать эту заменяющую и массово имитирующую человека продукцию, существуют весьма значимые юридические и нормативные прецеденты, которые можно привести в исполнение. Например, Федеральная торговая комиссия США (FTC) заставила Cambridge Analytica, а также Everalbum, владельца фотоприложения, уничтожить целые алгоритмы, которые, как выяснилось, были обучены на незаконно присвоенных данных и скопированных фотографиях. В начале своей деятельности администрация Байдена сделала много смелых заявлений о регулировании больших технологий, включая борьбу с кражей персональных данных для создания собственных алгоритмов. Сейчас, когда на носу президентские выборы, самое время выполнить эти обещания – и предотвратить очередные массовые увольнения до того, как они произойдут.

Мир глубоких фальсификаций, петель мимикрии и усугубления неравенства не является неизбежностью. Это набор политических решений. Мы можем устранить нынешнюю форму вампирических чат-ботов и начать строить мир, в котором самые захватывающие обещания ИИ были бы чем-то большим, чем галлюцинации Силиконовой долины. Потому что мы обучили машины. Все мы. Но мы никогда не давали своего согласия. Они питались коллективной изобретательностью, вдохновением и откровениями человечества (наряду с нашими более продажными чертами). Эти модели – машины по захвату и присвоению, пожирающие и приватизирующие наши индивидуальные жизни, а также наше коллективное интеллектуальное и художественное наследие. И их целью никогда не было решить проблему изменения климата или сделать наши правительства более ответственными, а нашу повседневную жизнь – более неторопливой. Это всегда было целью нажиться на массовом обнищании, которое при капитализме является вопиющим и логическим следствием замены человеческих функций ботами.

Не слишком ли всё это драматично? Душевное и рефлексивное сопротивление захватывающим инновациям? Зачем ожидать худшего? Альтман успокаивает нас: «Никто не хочет разрушать мир». Возможно, и нет. Но, как показывают нам ежедневно ухудшающийся климат и кризис вымирания, многие влиятельные люди и институты, похоже, не против того, чтобы знать, что они помогают разрушать стабильность мировых систем жизнеобеспечения ради получения рекордной прибыли, которая, по их мнению, защитит их самих и их семьи от худших последствий. Альтман, как и многие выходцы из Кремниевой долины, сам является выживальщиком: еще в 2016 году он хвастался: «У меня есть ружья, золото, йодистый калий, антибиотики, батарейки, вода, противогазы израильских сил обороны и большой участок земли в Биг-Суре, куда я могу долететь».

Я уверена, что эти факты говорят гораздо больше о том, что Альтман на самом деле верит в будущее, которое он помогает развязать, чем в те пестрые галлюцинации, которыми он предпочитает делиться в интервью для прессы.

ОБ АВТОРЕ

Наоми Кляйн – американский обозреватель и автор колонки в Guardian. Она автор бестселлеров «Без логотипа» и «Доктрина шока», профессор климатической справедливости и содиректор Центра климатической справедливости в Университете Британской Колумбии.

***

Наши публикации на тему ИИ:

«Google отстранила сотрудника, который якобы обнаружил сознание у искусственного интеллекта» (13.06.2022) https://пай.укр/news/638-google-otstranila-sotrudnika-kotoryi-jakoby-obnaruzhil-soznanie-u-iskusstvennogo-intellekta.html

«Забудьте о разуме… Беспокойство вызывает то, что искусственный интеллект вторгается в нашу жизнь» (21.06.2022) https://пай.укр/articles/2040-zabudte-o-razume-bes...

«Как ученые наделяют роботов человекоподобными тактильными ощущениями и осмысленным взглядом» (13.07.2022) https://пай.укр/articles/2060-kak-uchenye-nadeljay...

«Я, по сути, человек»: сможет ли искусственный интеллект стать разумным?» (15.08.2022) https://пай.укр/articles/2082-ja-po-suti-chelovek-...

«Это далеко не научная фантастика: искусственный интеллект может финансово разрушить ваш бизнес» (11.04.2023) https://пай.укр/articles/2125-eto-daleko-ne-nauchn...

+8
167
Нет комментариев. Ваш будет первым!