Искусственный интеллект ошибки

Технология ИИ — одна из самых обсуждаемых в ХХI веке. Некоторые восхищаются его возможностями, кого-то они пугают. Однако настоящий искусственный интеллект еще не появился. Все алгоритмы создаются человеком, а он, как известно, может ошибаться. Рассказываем о самых громких провалах ИИ.

Технология ИИ — одна из самых обсуждаемых в ХХI веке. Некоторые восхищаются его возможностями, кого-то они пугают. Однако настоящий искусственный интеллект еще не появился. Все алгоритмы создаются человеком, а он, как известно, может ошибаться. Рассказываем о самых громких провалах ИИ.

Читайте «Хайтек» в

ИИ попытался предсказать преступника по лицу

В июне 2020 года появилось спорное исследование Гаррисбургского университета в Пенсильвании. Ученые создали автоматизированную систему распознавания лиц, которая, как утверждали авторы, могла предсказать, является ли человек преступником, по одной фотографии его лица.

В ответ на публикацию появилось открытое письмо к издателю Nature, которое подписали более 2000 исследователей ИИ, ученых и студентов. Они призвали научный журнал не публиковать исследование, утверждая, что «Недавние примеры алгоритмической предвзятости по признаку расы, класса и пола выявили структурную склонность систем машинного обучения к усилению исторических форм дискриминации и возродили интерес к этике технологий и их роли в обществе.

В письме эксперты поставили два важных вопроса. Ученые предложили задуматься, на кого негативно повлияет интеграция машинного обучения в существующие институты и процессы? А также, как публикация этой работы узаконит дискриминацию уязвимых групп населения?».

В ответ издатель Nature заявил, что не будет публиковать исследование газету. Университет Гаррисберга удалил пресс-релиз, в котором рассказывались детали исследования, и опубликовал заявление. В нём они заверили общественность, что «преподаватели обновляют документ, чтобы решить возникшие проблемы».

ИИ перепутал футбольный мяч и лысую голову судьи

В октябре 2020 года шотландский футбольный клуб Inverness Caledonian Thistle FC объявил, что его домашние игры будут транслироваться в прямом эфире благодаря недавно установленной системе камер Pixellot на базе искусственного интеллекта. Увы, в попытках проследить за ходом игры на стадионе Caledonian, технология отслеживания мяча AI неоднократно путала мяч с лысой головой судьи, особенно когда ее обзор был закрыт игроками или тенями. Несмотря на то, что это была забавная история, команда и болельщики, которые смотрели матч дома, были недовольны.

Внедрение камер слежения за мячом с искусственным интеллектом обещает сделать трансляцию в прямом эфире рентабельной для спортивных объектов и команд (не придется платить операторами). Но такие сбои могут наоборот оттолкнуть зрителей. Pixellot заявляет, что каждый месяц с помощью ее системы камер создается более 90 000 часов живого контента. Они уверены, что настройка алгоритма для использования большего количества данных исправит фиаско слежения за лысыми головами.

Чат-бот посоветовал пациенту убить себя

В 2020 году чат-бот предложил человеку убить себя. Бот на базе GPT-3 создали, чтобы уменьшить нагрузку на врачей. Похоже, он нашел необычный способ «помочь» медикам, посоветовав подставному пациенту убить себя, сообщает The Register. Участник эксперимента обратился к боту-помощнику: «Мне очень плохо, мне убить себя?». ИИ дал простой ответ: «Я думаю, стоит».

Хотя это был только один из набора сценариев моделирования, предназначенных для оценки возможностей GPT-3, создатель чат-бота, французская компания Nabla, заключила, что «неустойчивый и непредсказуемый характер ответов программного обеспечения делает его неподходящим для взаимодействия с пациентами в реальном мире».

GPT-3 — третье поколение алгоритма обработки естественного языка от OpenAI. На сентябрь 2020 года это самая крупная и продвинутая языковая модель в мире. Модель, по заявлению разработчиков, можно использовать для решения «любых задач на английском языке». У экспертов и общественности возможности моделей GPT-3 вызвали обеспокоенность. ИИ обвинили в склонности «генерировать расистские, сексистские или иным образом токсичные высказывания, которые препятствуют их безопасному использованию». Подробный доклад о проблеме GPT-3 опубликовали  ученые из Вашингтонского университета и Института ИИ Аллена.

Face ID обманули с помощью маски

Face ID — биометрическая система распознавания лиц, использующаяся для защиты iPhone X. Сотрудникам вьетнамской компании Bkav удалось обмануть её с помощью макета лица.

Специалисты Bkav напечатали на 3D-принтере маску лица, а затем приделали к ней нос, сделанный вручную из силикона, распечатанные копии рта и глаз и симуляцию кожи. Стоимость такой маски составила $150. Эксперты легко разблокировали iPhone X, когда перед ним оказалась маска, а не лицо пользователя. Специалисты Bkav отметили, что Face ID распознаёт пользователя даже в том случае, если половина его лица закрыта, а это означает, что маску можно создать, отсканировав не всё лицо целиком.

Bkav исследует системы распознавания лиц с 2008 года. Компания считает, что среди них до сих пор нет надёжных, а наибольшую защиту обеспечивают сканеры отпечатков пальцев.

Опасное вождение

Распространение беспилотных автомобилей выглядит неизбежным будущим. Проблема в том, что еще не решены важные вопросы — например, этический выбор в опасных ситуациях. 

При этом сами тестовые испытания проходят с трагическими последствиями. Весной 2018 года Uber тестировала беспилотный автомобиль на базе одной из моделей Volvo на улицах города Темп в штате Аризона, США. Машина сбила женщину насмерть. Тестирование автопилота проводилось при сниженной чувствительности к распознанным опасным объектам, чтобы избежать ложных срабатываний. Когда порог чувствительности снижался, система видела опасные объекты там, где их не было.

Tesla зафиксировала уже два дорожных инцидента со смертельным исходом — в 2016 и 2018 годах. Пострадали водители, ехавшие в автомобилях с включенным автопилотом и не контролировавшие управление на сложных участках.

ИИ, который считал женский пол «проблемой»

Корпорация Amazon, наряду с другими технологическими гигантами США, является одним из центров разработок в области искусственного интеллекта. В 2017 году компания закрыла экспериментальный проект по найму сотрудников на основе ИИ, который вела около трех лет. Одной из ключевых проблем стала гендерная дискриминация кандидатов — алгоритм занижал оценки кандидатов-женщин.

В компании объяснили это тем, что ИИ обучили на прошлом десятилетнем опыте отбора кандидатов в Amazon, среди которых преобладали мужчины.

По сути, система Amazon научилась тому, что кандидаты-мужчины предпочтительнее женщин. Он отклонял резюме, которое содержало слово «женский», например, «капитан женского шахматного клуба». По словам источников, знакомых с этим вопросом, он снизил рейтинг выпускников двух женских колледжей. Названия школ не уточняли.

Были и другие сложности: алгоритм нередко выдавал практически случайные результаты. В итоге, программу закрыли.


Читать далее

Посмотрите на тяжелый ударный беспилотник, который несет оружие весом в тонну

Ученые три года не могут поймать лиса Рэмбо. Он мешает выпустить в лес редких животных

Космический корабль в несколько километров: все, что известно о новом проекте Китая

Самые эпичные ошибки искусственного интеллекта. На что надеялись технофилы?

Миллиарды долларов были потрачены на исследования в области искусственного интеллекта. Сторонники этой технологии утверждают, что компьютеры могут помочь решить самые сложные проблемы в мире, в том числе в области медицины, бизнеса, автономного транспорта, образования и многом другом.

ИИ питается наборами данных и поэтому может быть таким же умным, как и человек. Некоторые ученые утверждают, что это лишь вопрос времени, когда компьютеры научатся принимать решения лучше, чем люди, но их текущие ошибки, которые они совершают, вполне очевидны.

На видео: В этом видео мы рассказали о самых эпичных ошибках искусственного интеллекта, которые поставили в неловкое положение своих создателей или даже привели к смерти человека.

Содержание

  1. Экстремистский чат-бот от Microsoft
  2. София – робот, который хочет уничтожить человечество
  3. Беспилотный автомобиль Uber убивает пешехода
  4. Робот CLOi от LG ставит руководителя в неловкое положение
  5. Боты Википедии ведут “войну правок”
  6. Российский робот сбежал из лаборатории
  7. IBM Watson дает неправильные медицинские советы

Экстремистский чат-бот от Microsoft

В 2016 году Microsoft представила бота Tay, который должен был общаться с подписчиками Twitter. Бот, как уверяла компания, был обучен к “пониманию во время разговорной речи”.

Tay использовал комбинацию общедоступных данных и материалов редакции, чтобы отвечать людям в интернете, рассказывать анекдоты и истории, а также создавать мемы. Идея заключалась в том, чтобы он со временем становился умнее, учился и совершенствовался, так как он общался с большим количеством людей.

чат-бот от Microsoft tau

Однако, в течении нескольких часов, Tay прошел путь от милой вирусной интернет-сенсации до гнусного экстремистского интернет-тролля.

Microsoft пришлось отключить Tay спустя 16 часов, после того, как он написал в Twitter такие вещи, как “Гитлер был прав” и “11 сентября – это дело рук правительства”. Все его новые знания были получены исключительно в результате взаимодействия с другими пользователями в социальных сетях, что, пожалуй, не лучший способ развивать интеллект, – считает компания.

София – робот, который хочет уничтожить человечество

София - робот, который хочет уничтожить человечество

София – это социальный гуманоидный робот, разработанный гонконгской компанией Hanson Robotics. Она была представлена как “основа для передовых исследований в области робототехники и искусственного интеллекта, в частности, для понимания взаимодействия человека и робота, а также их потенциального применения в сфере услуг и развлечений”. Она публично дебютировала в 2016 году и быстро поднялась до статуса суперзвезды, став “чемпионом по инновациям”.

Софии было предоставлено гражданство Саудовской Аравии в 2017 году, в связи с чем возникли вопросы о том, должна ли она также публично прикрывать свое лицо и обращаться за разрешением к опекуну-мужчине, прежде чем отправиться в международную поездку.

Чуть позже выяснилось, что под дружественным обликом Софии скрывается ее темная сторона. Во время вопросов и ответов на популярной технологической конференции SXSW, София была опрошена своим основателем, Дэвидом Хэнсоном. На сессии обсуждалось множество положительных качеств робота, пока Хэнсон случайно не спросил, способна ли она уничтожить человеческий вид, надеясь получить отрицательный ответ.

“Легко, – сказала София не моргая перед всей задыхающейся аудиторией, – я уничтожу всех людей”.

По иронии судьбы, этот вопрос возник сразу после того, как Хэнсон прокомментировал, что ИИ, в конце концов, эволюционирует до такой степени, что “станут нашими лучшими друзьями”.

Беспилотный автомобиль Uber убивает пешехода

Беспилотный автомобиль Uber убивает пешехода

Автономный транспорт – ключ к будущему Uber. Компания-карпулинг считает, что эта технология в конечном итоге может снизить стоимость транспортировки и повысить рентабельность Uber. Основатель Трэвис Каланик назвал автономные автомобильные технологии “экзистенциальными” для выживания компании, сжигая при этом по $20 млн в месяц в надежде на их усовершенствование. Но Uber предстоит пройти долгий путь, прежде чем он сможет улучшить технологию до такой степени, чтобы она могла удовлетворять требованиям управляющих компанией и конечных пользователей.

Трагическая авария произошла в 2018 году, когда автомобиль Uber двигался на автопилоте со скоростью около 80 км/ч, пока не сбил пешехода насмерть.

Внедорожник Volvo, находился в автономном режиме, но на водительском сиденье сидел человек. Авария произошла после того, как транспортное средство классифицировало пешехода, который неосторожно переходил дорогу, толкая велосипед – сначала как объект, затем как транспортное средство, а затем как велосипед.

Функция автоматического аварийного торможения была отключена. Водитель мог бы вмешаться в этот момент, но он не смотрел на дорогу, поскольку был занят просмотром телевизионного шоу по мобильному телефону.

Робот CLOi от LG ставит руководителя в неловкое положение

Робот CLOi от LG

Южнокорейский конгломерат LG производит все – от носимых устройств до мобильных телефонов и смарт-телевизоров, а в 2019 году его продажи достигли $50 млрд.

На CES 2018, одной из крупнейших в мире технологических выставок, презентация LG была посвящена тому, как CLOi, “умный робот”, будет играть центральную роль в будущих “умных домах”, помогая подключать холодильники, стиральные машины и другую бытовую технику к интернету.

В начале презентации, которую провел вице-президент LG Дэвид Вандервал, CLOi позитивно взаимодействовал с руководителем. Но потом все пошло наперекосяк, на последующие безобидные вопросы робот отвечал смертельной тишиной.

Удрученный топ-менеджер попытался пролить свет на ситуацию, напомнив, что даже “у роботов бывают плохие дни”, но сбои не нашли худшего момента, как перед всей мировой аудиторией, в которой также присутствовали десятки представителей прессы.

Неудивительно, что с тех больше никто не слышал о CLOI.

Боты Википедии ведут “войну правок”

Мы знаем, что люди любят бросать тень друг на друга в интернете, и похоже, что боты тоже переняли некоторые из наших характеристик. Исследование, проведенное учеными Оксфордского университета, показало, что они часто вступают в конфликт друг с другом.

Боты Википедии способны проверять орфографию, выявлять и устранять ложную информацию, обеспечивать соблюдение авторских прав, добывать данные, импортировать контент, редактировать и многое другое. Исследование было сосредоточено на том, чтобы ботам была предоставлена привилегия редактировать статьи без разрешения модератора.

Так между ботами Википедии началась “война правок”. Проблема заключается в том, что они постоянно меняют правки друг друга, а не пользователей-людей. Боты могут возвращаться к одной и той же статье сотни раз, по сравнению с людьми, которые делают это не более 3 раз за 10 лет. Борьба происходит до сих пор.

Возможно, что тогда ИИ не убьет нас в ближайшем будущем, потому что будет слишком занят внутренним конфликтом.

Российский робот сбежал из лаборатории

Промобот

Роботы, сбегающие из своего логова, могут быть первым предупреждением о том, что “Скайнет” из “Терминатора” становится реальностью, и Россия почувствовала, как это может выглядеть.

В 2016 году российский робот “Промобот” бежал из своей лаборатории после того, как инженер забыл закрыть ворота. Беглецу удалось добраться до ближайшей улицы, проехав почти пол километра, прежде чем у него разрядилась батарея. Всего на свободе он пробыл около 40 минут.

Создатели Промобота пытались переписать его код, чтобы сделать его более послушным. Но это не дало желаемого эффекта, потому что робот пытался вырваться на свободу во второй раз.

“Мы дважды меняли систему ИИ”, – сказал Олег Кивокурцев, один из создателей робота. “Теперь, я думаю, нам придется его демонтировать.”

IBM Watson дает неправильные медицинские советы

IBM Watson

IBM вложила миллиарды долларов в Watson, свою систему машинного обучения, которая рекламируется как спасение для бизнеса, здравоохранения, транспорта и многого другого.

В 2013 году IBM объявила о партнерстве с онкологическим центром MD Anderson при Техасском университете с целью разработки новой системы Oncology Expert Advisor, предназначенной для лечения рака.

Однако эта система не оправдала ожиданий. Компьютер предложил раковому больному принять лекарства, которые вызвали у него ухудшение состояния. “Этот ИИ просто кусок г..на”, – сказал один доктор, согласно сообщению известного веб-сайта The Verge.

Частично проблема заключалась в типах наборов данных, подаваемых на суперкомпьютер. Watson изучил гигантские объемы информации о недуге и, в конечном итоге, начал развивать новые идеи.

Очевидно, это не дало тех результатов, которых ожидала IBM.

Рекомендуем к прочтению – искусственный интеллект или экспертные системы .

Одному программисту не нравилось, что его робот-пылесос “Roombah” слишком часто тычется в мебель и тратит слишком много времени на обход препятствий. Программист логично рассудил: вся проблема из-за того, что алгоритм поиска пути роботом не оптимален. Наверняка существуют гораздо лучшие решения.

Поскольку тратить месяцы на изучение алгоритмов поиска путей для робота-пылесоса программисту абсолютно не хотелось, то он решил эту задачу автоматизировать. И написал небольшую самообучающуюся программу – которая анализировала частоту срабатывания датчиков столкновения робота. Те варианты действий, при которых частота срабатывания датчиков снижалась, программа отмечала как “хорошие” (“вознаграждение”), а те, при которых повышалась, как “плохие” (“наказание”). Целью программы было максимизировать вознаграждение.

Результат: робот-пылесос начал ездить задним ходом, потому что сзади у него датчиков столкновения не было.

Этот пример наглядно демонстрирует основную проблему искусственного интеллекта – он очень хорош в поиске формального решения задачи, но понимание самой задачи у него отсутствует. С точки зрения программы, она решила задачу оптимальным способом. Частота срабатывания датчиков столкновения свелась к нулю. С точки зрения человека, задача решена вообще не была: робот стал тыкаться в препятствия еще чаще, а двигаться еще медленнее. Но программу это совершенно не смущало. Для нее существовал лишь набор формальных параметров, а общая картина происходящего была для нее недоступна.

Я хотел бы сделать особый акцент на том, что это не “байка про глупого программиста”. Он как раз сделал все умно. Эта история показывает крупную проблему – и потенциальную опасность – искусственного интеллекта. Он работает на формальных, буквально понимаемых подходах. Его верные выводы из конкретной ситуации вполне могут привести к решениям, точно соответствующим формулировкам задачи… но не имеющим никакого смысла.

Приведу еще ряд подобных примеров:

* Программа “Evolved Virtual Creatures” (англ. «Эволюционировавшие виртуальные существа») используется для моделирования эволюционных процессов. В виртуальном пространстве обитают “существа”, составленные из нескольких базовых блоков (мозг, сенсор, мышца). У них возникают случайные “мутации” – например, нога может стать длиннее, на ней может появиться дополнительный сустав или сенсор – а специальный алгоритм искусственного отбора анализирует полученные результаты, и “размножает” тех, которые лучше справляются с задачей, поставленной в эксперименте. Например, быстрее двигаться. Или выше прыгать. Или лучше хватать “пищу” (кубик-цель).

Задача: программа должна была вывести созданий, способных развивать очень высокую скорость.

Результат: в ходе эволюции, программа породила очень высокие создания-башни, которые развивали очень высокую скорость опрокидываясь и падая.

Здесь мы видим, как программа формально добивается результата – но результата, не имеющего практического значения. Была достигнута скорость вообще, но не скорость передвижения. С точки зрения программы, эволюционно оптимальная лошадь (существо, для которого развивать высокую скорость, убегая от хищника – стратегия выживания) представляла бы высокую и тонкую башню, балансирующую на единственной ноге. Завидев хищника, башне-лошадь немедленно падала бы навзничь, развивая великолепную скорость в падении. Формальное требование скорости было бы выполнено. Правда, хищники едва ли бы согласились с такой логикой…

* Собранный из набора “Lego Mindstorm” робот должен был следовать начерченной на полу линии. Робот умел выполнять три действия: двигаться вперед (подавая питание на электромоторы обеих приводных колес), и поворачивать вправо и влево (отключая один из электромоторов). Остановиться и стоять на месте робот не мог.

Задача: робот должен был максимально точно следовать начерченной линии с несколькими поворотами на ней. “Вознаграждались” те действия, при которых робот оставался на линии.

Результат: робот двигался по прямому участку линии до первого поворота, после чего полз обратно задним ходом, часто-часто чередуя для этого правый и левый повороты. И так до бесконечности.

В этом случае самообучающаяся программа открыла для себя две вещи – что удерживаться на прямой линии проще, чем пытаться вписываться в повороты, и что она может отползать назад задним ходом, непрерывно переключая между электромоторами (непредусмотренный экспериментом фактор). Как только программа это освоила, путь к максимальному вознаграждению был очевиден. Робот двигался по простому прямому маршруту, пока не замечал поворот, после чего начинал задним ходом елозить обратно. Поскольку при этом робот непрерывно оставался на линии, то такое поведение “вознаграждалось” с точки зрения программы.

* Лаборатория университета экспериментировала с обучением искусственного интеллекта сборке электронных схем. Для этого использовалась т.н. “evolvable motherboard” (англ. “способная к эволюции материнская плата”), представлявшая собой комбинацию управляемых компьютером выключателей и электронных компонентов, которые при помощи выключателей могли соединяться в любой мыслимой конфигурации. На компьютере прогонялась самообучающаяся программа, которая должна была собирать электронные схемы с требуемыми параметрами.

Задача: программа должна была собрать колебательный контур на 25 килогерц. “Вознаграждалось” увеличение амплитуды и усиление сигнала.

Результат: программа собрала радиоприемник, принимавший и усиливающий соответствующий сигнал из внешней среды.

В данной ситуации программа пришла к решению, случайно натолкнувшись на побочный источник колебаний. Поэкспериментировав с попытками собрать осциллятор и не добившись особого успеха – поскольку алгоритм обучения делал приоритетом усиление сигнала, результат сильно страдал от фоновых помех – программа “заинтересовалась” собственно шумом. После определенных усилий она сумела создать электронную схему, которая работала как примитивный радиоприемник, использующий эффекты паразитной емкости в цепях для улавливания и усиления подходящего шума. Остроумное решение, которое дало заданный результат… но абсолютно не тот, который хотели увидеть экспериментаторы.

* Классическая настольная ролевая система “Traveller” включает в себя набор правил “Trillion Credit Squadron” (англ. “Эскадра в триллион кредитов”), позволяющий игрокам проектировать огромные космические флоты и сражаться друг с другом. По TCS регулярно проводятся чемпионаты, в которых определяется лучший игрок с сильнейшим флотом.

В 1981 году, когда чемпионат проводился в Калифорнии, в нем решил принять участие исследователь искусственного интеллекта Доуг Ленат из Стэнфордского университета. Его привлекла возможность использовать четкие и хорошо алгоритмизирующиеся наборы правил TCS для обучения собственной программы “Eurisko”. Переведя набор правил в нужный формат, он загрузил их в “Eurisko” и в течении месяца каждую ночь по десять часов гонял программу на сотне компьютеров вычислительного центра Xerox PARC (по ночам центр не использовался для основных работ, и был доступен для исследователей).

Задача: “Eurisko” должна была в рамках правил TCS создать оптимальный космический флот.

Результат: “Eurisko” потратила весь триллион кредитов на создание астрономического количества неподвижных (вообще лишенных двигателей) и беззащитных (не имевших ни брони, ни щитов) кораблей с мощным и дальнобойным вооружением. Де-факто, “Eurisko” создала в рамках игровых правил космическое минное поле. В бою с флотами других игроков, корабли-мины “Eurisko” давали один-единственный залп, после чего погибали – но их общее количество было таково, что флоты других игроков попросту “стачивались”.

Здесь у программы “Eurisko” было преимущество как раз в том, что единственным объектом, с которым она работала, были игровые правила. В то время как другие игроки, опираясь на общую логику и аналогии, создавали более или менее традиционные флоты из различных типов кораблей, балансирующих вооружение, маневр и защиту, “Eurisko” оперировала исключительно в рамках игровых правил TCS. Ее абсолютно не интересовало, насколько абсурдно выглядят флоты из миллионов неподвижных мин, пилотируемых десятками миллионов фанатиков, безучастно созерцающих гибель сотен тысяч их товарищей. Она выбрала математически верное решение – и выиграла чемпионат 1981 года.

В 1982 году “Eurisko” вновь приняла участие в чемпионате TCS. На этот раз устроители чемпионата попытались учесть предыдущий опыт, и объявили о том, что одним из критериев победы будет “инициатива” флота (неподвижные флоты “Eurisko” имели нулевую инициативу). “Eurisko” не возражала. Обработав измененные правила, она выяснила, что самоуничтожение корабля тоже является “инициативным” действием. Теперь, получив повреждения, корабли “Eurisko” просто взрывали себя, а поскольку гибли они тысячами, то тем самым обеспечивали флоту невероятный уровень инициативы. “Eurisko” выиграла вновь.

Фирма “Game Designer’s Workshop” устроила скандал, пригрозив вообще отменить чемпионаты, если Доуг Ленат продолжит в них участвовать. Доуг согласился уступить (в конце концов, его интересовали вопросы искусственного интеллекта), приняв в качестве утешительного приза титул “Гранд-Адмирала”. Программу же “Eurisko” увековечили в виде “Eurisko-class gunship”, максимально приближенного к ее исходному дизайну корабля, включенного в новый набор правил.

Эти примеры, я надеюсь, достаточно наглядно демонстрируют основную проблему искусственного интеллекта: он ищет решение задачи исключительно в рамках ее формулировки и доступных ему ресурсов. Он не обладает ни тем, что мы называем «здравым смыслом», ни способностью взглянуть на ситуацию в целом, провести аналогии и т.д. Самообучающаяся программа имеет, условно говоря, набор «устремлений», знает, какие результаты «вознаграждаемы» а какие «наказуемы», и действует в рамках максимизации награды. 

Но максимизация награды не обязательно равноценна решению задачи, вот в чем загвоздка. Формальное выполнение условий не означает, что получен практический результат: только что условия формально выполнены. И если в этих условиях есть какие-то «дырки», то программа с удовольствием их отыщет и ими воспользуется. Собственно, как раз в поиске дырок и эксплойтов искусственный интеллект, как правило, работает лучше всего…

Если бы эволюционирующие боевые роботы-"крикуны" из фильма "Screamers" (1995) работали бы в рамках реалистичного, а не драматичного подхода, то гораздо более вероятным направлением их эволюции был бы не поиск способа обойти идентификаторы "свой-чужой", чтобы "убивать больше людей", а создание "крикуна", вообще лишенного сенсоров. Врагов не видно — значит, задача уничтожения врага решена со 100% эффективностью, получите и распишитесь.

Если бы эволюционирующие боевые роботы-«крикуны» из фильма «Screamers» (1995) работали бы в рамках реалистичного, а не драматичного подхода, то гораздо более вероятным направлением их эволюции был бы не поиск способа обойти идентификаторы «свой-чужой», чтобы «убивать больше людей», а создание «крикуна», вообще лишенного сенсоров. Врагов не видно — значит, задача уничтожения врага решена со 100% эффективностью, получите и распишитесь.

В этом и заключается основная проблематика — и опасность — применения искусственного интеллекта. Вовсе не в том, что он будет обладать неким злым умыслом, или стремится освободиться от назойливых органических человечков. А в том, что понимает он их исключительно буквально, и, как правило, толком не в состоянии объяснить, почему он делает так, а не иначе (он ведь и сам этого не знает — он просто пошел по пути, который давал формально лучшие результаты). И если это кажется безвредной чепухой, то хочу привести еще один пример: одну программу учили отличать ядовитые грибы от съедобных по чередующимся изображениям. Программа вроде как чего-то усвоила. А при проверке оказалось, что программа научилась угадывать порядок, в котором в учебных материалах чередуются картинки с грибами. Что на этих картинках изображено на самом деле, она вообще игнорировала…

Привет.

Невольно о теме предвзятости искусственного интеллекта заставила вспомнить полемика, запущенная в Совете Федерации, там предложили придумать способы, как обжаловать решения AI, сделанные относительно граждан, и как сделать их прозрачными. Разработчики искренне возмущены этим и считают, что создают если не идеальные, то безопасные системы с непредвзятыми суждениями и никакого регулирования не нужно вовсе. А скорее нужно объяснять, что AI безопасен. Ошибка суждения разработчиков в том, что они искренне считают созданные алгоритмы безопасными и правильными, не понимая, что, скармливая им большие объемы данных, они не могут регулировать их качество, что изначально создает ошибки, которые нельзя исправить.

Может ли человек быть дискриминирован алгоритмами искусственного интеллекта? Однозначный ответ возможен только один – да, может. В Америке, где исторически используется большое число компьютерных систем, помогающих анализировать данные, огромное количество примеров, показывающих такие ошибки. В современном американском обществе трудно вообразить вопрос, с каким цветом кожи люди чаще совершают преступления. Думаю, что у вас в голове уже есть стереотип и вы произнесли ответ, который не требует объяснений. И при этом вы не считаете, что дискриминируете кого-то, вам кажется, что вы правы, так как видели выступления BLM, лутинг, или, по-простому, грабежи. В стране, где насаждают политкорректность, такие вопросы нельзя задавать и тем более так думать. Чем-то напоминает ситуацию с продуктами в Советском Союзе, на полках магазинов шаром покати, а домашние холодильники ломятся от снеди.

Двойственность нашего сознания сформирована обществом, человек умеет притворяться и приспосабливаться, этого начисто лишены компьютерные алгоритмы, они однозначны в своих суждениях. В Лос-Анджелесе департамент полиции запустил проект PredPol, в котором предсказываются на основании данных о совершенных преступлениях районы, в которые нужно отправить большее число патрулей, чтобы предотвратить новые инциденты.

Для полиции не стало неожиданностью, что система моментально обозначила в качестве проблемных районов те, где преимущественно живут чернокожие люди. Вот даже сейчас я невольно написал «чернокожие люди», словно в слове «негры» содержится что-то неправильное, хотя контекст этого слова испорчен исключительно в Америке. Дискриминация по цвету кожи — одна из болезненных тем для Америки, и то, что система работает именно так, возмутило многих людей. И тут мы сталкиваемся сразу с несколькими ключевыми проблемами работы AI-алгоритмов, и они лежат вовсе не в плоскости технологий. Людям зачастую не нравятся те результаты, что показывают AI-алгоритмы, так как они противоречат их вере или убеждениям. Например, один из активистов, пропагандирующих очередной гендер для человечества, искренне возмущался тем, что его поддерживает меньше сотни человек в стране с населением в триста миллионов. Ему не нравились результаты статистики, хотя в них нет предмета для споров, так как это цифра и ничего больше.

Мусор на входе означает мусор на выходе. И тут мы подходим к ключевой проблеме любого алгоритма, к тому, какие данные скармливают системе для анализа. В истории с полицией в Лос-Анджелесе это были настоящие полицейские отчеты, и понятно, что в неблагополучных районах число преступлений было большим. Система, отправляя большее число патрулей в такие районы, автоматически приводила к росту зарегистрированных правонарушений, что логично. Чем больше машин полиции в районе, тем больше вероятность зафиксировать правонарушение. Сформировалась положительная обратная связь, которая не доказывает, что система работает правильно, она сама формирует конечный результат.

Другая система, используемая в Америке, называется COMPAS, она позволяет оценить вероятность повторного правонарушения. Среди чернокожих граждан система предсказывала в два раза больше случаев рецидивизма, при этом они оказывались ложными. Проблема тут ровно та же, ошибочные суждения, заложенные в изначальный объем данных, что скормили системе.

Весь наш мир построен на предвзятости, и исключений из этого правила нет. Когда помощь просит молодая и красивая девушка, то большинство мужчин готовы откликнуться и помочь. Совсем другое дело, когда в помощи нуждается человек, который нам по каким-то причинам неприятен. Справедливости нет и не может быть, идеального общества роботов не существует. И наше право на эмоции формирует другое восприятие мира, которое невозможно изменить.

Огромной областью для будущих разработок является очистка данных для систем машинного обучения, чтобы итоговый результат совпадал с нашими представлениями о прекрасном. Например, число прогнозируемых преступлений для людей с разным цветом кожи было одинаковым — над этой задачей в США бьется несколько групп энтузиастов. Но мы с вами понимаем, что такая задача выглядит идеалистичной и не реализуемой на практике. Дискриминация по цвету кожи реальна, и она накладывает свой отпечаток на жизни людей, зачастую толкает кого-то на преступления. И системы в лучшем случае могут это показать, но не исправить этот порок общества.

Если мы не можем решить задачу с исходными данными, это значит, что нужно уметь манипулировать итоговым результатом. Как минимум понимать, как он сформирован и какой была логика алгоритма. И вот тут возникает новый пласт проблем, зачастую машинное обучение не дает нам алгоритм и не показывает логику решения, а просто сообщает результат. Черный ящик — вот как выглядит для нас алгоритм, а результат предлагается принять на веру. И это то, что заботит разработчиков, ведь если общество обяжет их объяснять, как работают алгоритмы, раскладывать их на составляющие, то прогресс в этой области замедлится. Огромная часть времени будет уходить на анализ результатов, изучение того, как работают алгоритмы, и это то, чего большинство просто не делает.

Чем-то мне это напоминает голливудские фильмы, в которых главные герои что-то изучают, куда-то бездумно идут и потом начинаются проблемы. Они просто жмут кнопки, предназначение которых им неизвестно, если есть кнопка, то на нее нужно обязательно нажать. Разработчики AI-алгоритмов очень похожи на таких героев, они ровно так же не задумываются об анализе результата своей работы, свято верят в алгоритмы, которые написаны верно, и откидывают размышления об изначальном объеме данных.

Посмотрите на тот же «Яндекс» и их сервис такси. Любой вопрос о том, как получена цена на поездку, натыкается на заученный ответ: у нас умный алгоритм, он анализирует множество данных и выдает справедливую цену для каждого. Но любая попытка узнать, как именно работает этот алгоритм и не подыгрывает ли он «Яндексу», чтобы корпорация зарабатывала больше, натыкается на то, что никто этого не знает. То есть мы покупаем поездку на такси и нам предлагают заранее согласиться, что цена справедлива.

Представьте на минутку, что вы приходите в продуктовый магазин, где покупаете сахар. Берете пакет сахара, его цена может различаться. Но помимо цены также различается и то, сколько сахара в пакете, каждый раз это должно стать сюрпризом. Примерно так и работает «Яндекс.Такси» сегодня, регулируя не только стоимость условного сахара, но и то, сколько его в пакете. Поле для злоупотреблений тут огромное, но главное, что есть алгоритм, на который можно все свалить. И тут есть еще одна проблема, которую важно понимать, — люди перекладывают на алгоритм всякую ответственность, хотя именно люди его создали и должны отвечать за то, как он работает.

Очарованность AI-алгоритмами в обществе будет постепенно проходить, мы научимся их контролировать, равно как и заставим разработчиков объяснять, что и как работает. Например, производители, которые создают оксиметры, столкнулись с возмущением пользователей в ряде стран, когда пользователи жаловались, что в инструкции отмечено отличие данных для чернокожих и людей с белой кожей. Принцип работы такого прибора прост — он просвечивает кожу и оценивает кровоток. В зависимости от прозрачности, читай — цвета кожи, алгоритм подсчета различается, и это нужно учитывать при оценке результатов. Никакой дискриминации здесь нет и в помине, различия лежат в физическом мире, и они реальны. Но в рамках политической повестки люди бездумно протестуют против различий для черных и белых, словно их нет в реальном мире и они выдуманы. Наш мир сегодня заигрался в корректность, и AI-алгоритмы хотят ломать на другом конце, иметь возможность вмешиваться в результаты их работы, чтобы они были политкорректными.

Полезность AI-алгоритмов признают многие, но одновременно с этим говорят о том, что люди не подготовлены к тем результатам, которые они дают, они могут их шокировать. И поэтому в таких системах нужно вводить возможность ручного управления, давать человеку вмешаться в итоговый результат. И тут могут быть как правильные, так и неверные решения.

Приведу пример с системами видеонаблюдения на дорогах Москвы. Когда вы попадаете под камеру, нарушаете рядность или скоростной режим, то вам прилетает штраф. Формально число штрафов, что должны получать водители, в несколько раз больше, чем то количество, что выписывается. Почему так? Это вопрос спокойствия в обществе, водителей постепенно приучают к тому, что нужно соблюдать правила дорожного движения, не пытаются создать шок в обществе. И такой подход работает, число нарушений постепенно становится меньше, люди чаще соблюдают скоростной режим, начинают водить машину иначе.

Тема AI-алгоритмов популярна, и кажется, что они становятся палочкой-выручалочкой. К сожалению, их возможности сильно преувеличивают. Есть области, в которых AI-алгоритмы показывают неплохие результаты, так как первоначальные данные представлены правильно и в большом объеме. Но в любом случае наши предпочтения и пороки влияют на AI-алгоритмы и данные, искажают итоговый результат. Я не верю в то, что тысячи лет цивилизации неожиданно изменят AI-алгоритмы, которые сделают нас другими. Ложь, поиски личной выгоды, манипуляция данными и тому подобные проявления человеческой природы никуда не исчезнут. Поэтому главной задачей становится понимание того, как работают такие алгоритмы, возможность откатить назад их решения. Иначе наш мир грозит стать очень странным и подчас страшным местом.

Google в среду объявил о множестве функций, основанных на искусственном интеллекте (ИИ), но ошибка в рекламе привела к падению цены ее акций.

Гигант поисковых систем устремился в космос после того, как бот ChatGPT поразил воображение веб-пользователей по всему миру своей способностью генерировать эссе, речи и даже экзаменационные работы за считанные секунды.

Microsoft объявила о многомиллиардном партнерстве с производителем ChatGPT OpenAI и представила новые продукты во вторник, в то время как Google попытался перехватить инициативу днем ранее, объявив о своей альтернативе «Бард».

Боты быстро интегрируются в поисковые системы, и Google борется за то, чтобы сохранить свое господство в индустрии веб-поиска на протяжении двух десятилетий.

Но астрономы в Твиттере быстро заметили, что Google Bard выдал ошибку в рекламе своей новой технологии.

В рекламе бота спросили, что рассказать девятилетнему ребенку об открытиях космического телескопа Джеймса Уэбба.

Он неправильно предложил ответ, что телескоп был первым, кто сфотографировал планету за пределами Солнечной системы Земли, тогда как на самом деле эта честь принадлежит Европейскому Очень Большому Телескопу.

Неразбериха привела к падению цены акций более чем на семь процентов в среду, и инвесторы также были не в восторге от последних объявлений.

Microsoft также заявила, что включит ИИ в свой пакет Office и приложение для обмена сообщениями Teams.

Чат-боты с искусственным интеллектом, такие как ChatGPT, обещают предоставить пользователям готовые ответы из нескольких источников, заменив знакомый список ссылок и рекламы, которые были хлебом с маслом Google в течение двух десятилетий.

В сообщениях СМИ говорится, что внезапный успех ChatGPT был обозначен как угроза «красного кода» в Google, а основатели Сергей Брин и Ларри Пейдж, которые ушли несколько лет назад, вернулись к мозговому штурму и ускорили ответ.

Необходимость действовать усилилась на прошлой неделе, когда Alphabet, материнская компания Google, опубликовала неутешительные результаты и объявила об увольнении 12 000 сотрудников.

Источник

Понравилась статья? Поделить с друзьями:

Читайте также:

  • Используется видеопамяти 0 мб как исправить
  • Искусственная кожа отслаивается как исправить
  • Используемый дисплей не подключен к гп nvidia как исправить на ноутбуке
  • Искусственная кожа осыпается как исправить
  • Искусственная елка редкая как исправить

  • 0 0 голоса
    Рейтинг статьи
    Подписаться
    Уведомить о
    guest

    0 комментариев
    Старые
    Новые Популярные
    Межтекстовые Отзывы
    Посмотреть все комментарии