Что ИИ не может и что ему мешает?
Технологии

Что ИИ не может и что ему мешает?

Искусственный интеллект сталкивается с ограничениями, о которых средний энтузиаст ИИ не всегда хорошо осведомлен. В целом их можно охарактеризовать как проблему, заключающуюся в том, что алгоритмы хорошо работают в лаборатории, а условия тестирования не работают в реальном мире (1).

Исследовательское сообщество было глубоко тронуто статьей команды Google по искусственному интеллекту, опубликованной в ноябре 2020 года под названием «Недостаточная спецификация создает проблемы для доверия к современному машинному обучению». В документе подчеркивается особо острая проблема, в которой, даже если модели машинного обучения они хорошо проходят тесты, но не так хорошо в реальном мире. Сбои модели, которые не работают при тестировании в реальных условиях, известны давно, но эта работа является первой, публично доказывающей и перечисляющей эту «недостаточную спецификацию» (которую можно перевести как «неопределенность») в качестве основной причины проблемы. проблемы.

Приблизительно у продукта машинного обучения есть три шага от идеи до выхода на рынок:

  1. Обучение на выборочных данных для построения модели;
  2. Тестирование модели на данных, которых раньше не было, чтобы убедиться, что модель применима в целом, а не просто подходит для обучающих данных;
  3. Реальное приложение на новых данных.

Процесс основан на предположении, что хорошие результаты на тестовой выборке равны хорошим результатам на тестовой выборке. реальные данные, за исключением систематических изменений между тестами и реальностью (называемых сдвигом данных или смещением). Например, модель прогнозирования продаж одежды, обученная на зимних примерах, скорее всего, не сможет делать прогнозы летом, потому что она много узнала о толстых куртках, но очень мало о шортах. Полевые специалисты должны помнить об этом и обучать систему на соответствующих данных.

Однако ученые Google засунули палку в муравейник, доказав, что даже лучшие в своем классе методологии тестирования не дают уверенности в требуемой производительности в реальный мир. После тестирования некоторые модели будут великолепны в реальном мире, а некоторые разочаруют и их нельзя предсказать заранее.

Причина этого в том, что повторение процесса обучения может привести к созданию множества разных моделей с одинаковыми результатами испытаний. Каждая модель отличается только небольшими, произвольными решениями о науке, вызванными, скажем, случайно установленные значения исходный или последовательность входных обучающих данных. Эти различия обычно считаются незначительными, но оказывается, что эти кажущиеся случайными изменения могут вызвать значительные, непредсказуемые изменения в реальном мире.

Именно эта «неопределенность» является большой проблемой для модных в настоящее время в технологических компаниях моделей (например, нейронных сетей для распознавания изображений, рекомендательных систем и глубокого обучения НЛП). Происходит при наличии тестовые данные они вполне могут быть сопоставлены во многих различных конфигурациях внутренних вычислительных цепей модели. Когда у моделей есть много разных способов получить один и тот же результат, мы не можем знать, какой подход является навыком, а какой — случайным событием. Чем больше случайности в предсказании тестовых данных, тем более они случайны больший диапазон вариаций в последующих реальных приложениях. Это забота научного сообщества машинное обучениепоскольку это показывает, что текущие методы тестирования (для крупномасштабных моделей) не гарантируют предсказуемость.

Все те же модели

Уточним, наблюдаемая непредсказуемость неприятна, но редко полностью парализует работу систем. Цикл тренировок i тестовое задание обычно достаточно, чтобы исключить чисто случайные закономерности. Просто некоторым моделям, успешно прошедшим испытания, повезло больше, чем ожидалось. Это предупреждение, но оно не означает, что модели не работают и неверны. Для дизайнеров этого вид ИИ является четким сигналом к ​​тому, чтобы сосредоточиться на хорошей работе в реальный мирпотому что, когда выяснится, что их системы там дают сбой, люди теряют к ним доверие, часто безвозвратно.

Не все так осторожно относятся к критике ИИ. По более радикальным мнениям, она во многом забуксовала. Алгоритмы и нейронные сети по-прежнему достигают впечатляющих новых результатов, таких как AlphaFold от DeepMind, который точно предсказывает структуру белков, или GPT-3 созданный OpenAI, пишущий статьи, неотличимые от тех, что написаны рукой человека, на основе коротких подсказок. Тем не менее, большинство этих систем по-прежнему определяется как узкий интеллект, который может выполнять только конкретную задачу, для которой система была тщательно обучена на большом количестве данных.

Тут стоит вставить, что в самый раз GPT-3 может быть исключением, то есть первым, который, не будучи «общим», вышел за рамки определения «узкий». Алгоритм, хотя и обучен написанию текстов, в конечном итоге также может переводить между языками, писать код, автоматически дополнять изображения, выполнять математические и другие связанные с языком задачи, для которых он не был специально обучен. Однако все возможности GPT-3 ограничены навыками, полученными в области языка (разговорный, письменный или язык программирования).

Успех AlphaFold и GPT-3 во многом был обусловлен огромными наборами данных, на которых они обучались. Это не были какие-то революционно-новые методы. обучающие архитектуры. Если все, что нужно для разработка ИИ, это продолжение или масштабирование существующей модели, т.е. — больше входных данных дает больше возможностей, мы пока в основном говорим только об одном виде техники.

И этот не идеален. Его можно ввести в заблуждение с помощью до смешного банальных уловок. В апреле 2019 года исследовательская группа китайского технологического гиганта Tencent сообщила, что Tesla Model S в режиме автопилота их можно обмануть, заставив совершить несуществующий поворот. Достаточно наклеить на дорогу маленькие наклейки по определенному шаблону (2). Более ранние исследования в Соединенных Штатах показали, что небольшие изменения в знаке «стоп» могут привести к тому, что беспилотный автомобиль будет считать его знаком ограничения скорости. Другие исследования показали, что, транслируя определенные, трудно идентифицируемые звуки, хакер может вызвать Динамик Amazon Echo он прикажет себе магазин вещейчего мы не хотим.

2. Хакеры обманывают систему Tesla

Методы такого «взлома» ИИ не взламывают системы. Они используют знание модели, чтобы заставить систему вести себя нежелательно. Они делают это без обхода какого-либо протокола безопасности. Так что это не классическая киберпреступность. Если бы это было так, если бы это заключалось во взломе какой-то системы безопасности, в получении несанкционированного доступа, тогда, вероятно, алгоритмы можно было бы научить реагировать и защищаться. Однако ИИ не может научиться защищаться от атак, которые в основном используют его основные возможности.

Дорогой алгоритм, Шерлок не ты

Как показывает ряд примеров, борьба с преступностью приводит к неприятным ошибкам с потенциально серьезными последствиями. Например, полиция Нью-Джерси столкнулась с критикой после ошибочного обвинения и ареста подозреваемого Ниджера Паркса на основании показаний в начале 2019 года. Затем он подал в суд на полицию, и полиция вышла из программы ИИ. Генеральный прокурор Нью-Джерси Гурбир Гревал приказал полицейским прекратить использование этой технологии в январе 2020 года — почти через год после ареста Пака.

Другим известным случаем такого рода несчастных случаев является случай с Робертом Джулианом Борчак-Уильямсом из Детройта, который широко освещался в средствах массовой информации. Когда вызванный Уильямс прибыл на станцию, его арестовали, потому что программа распознавания лиц определил, что он был человеком, замеченным на видео наблюдения за кражей в магазине в 2018 году (3). Он был невиновен и легко мог это доказать, но все равно должен был провести 30 часов в тюрьме из-за чрезмерное доверие полицейских к ИИ.

3. Сравнение мониторингового фото преступника с портретом Борчак-Вильямс, который был выбран алгоритмом в качестве подозреваемого

Несмотря на эти ошибки, во многих местах работа все еще продолжается. алгоритмы искусственного интеллекта с целью предвидеть правонарушение до его совершения. Такая концепция, известная в основном из научной фантастики, имеет много сторонников, например, шериф в центральной Флориде решил приказать системе ИИ предсказать, кто из жителей, находящихся под его юрисдикцией, с наибольшей вероятностью совершит преступление. В группу лиц, захваченных полицией, входили, в частности, 15-летняя Рио Воецки. Подросток украл раньше электрический велосипедпоэтому он находился под опекой сотрудника службы пробации. Алгоритм пришел к выводу, что Рио входит в пятерку наиболее вероятных преступников, совершающих больше преступлений в округе. В результате у его дверей регулярно появлялись офицеры.

Как резюмировала в сентябре 2020 года газета «Тампа Бэй Таймс», полугодовое журналистское расследование показало, что искусственный интеллект это не только не уменьшило количество преступлений, но и стало причиной того, что сервисы регулярно захватывают более двадцати семей, потому что алгоритм распознал их как потенциальную угрозу. Так что трудно сказать, что видение прямо из «Доклада меньшинства» хоть как-то работает.

ИИ еще многое предстоит узнать о мире

Следующие примеры показывают, что выбор искусственный интеллект это приводит к проблемам во многих отношениях. Когда YouTube объявил, что теперь он будет больше, чем раньше, полагаться на системы машинного обучения, чтобы помечать и удалять материалы, которые нарушают условия обслуживания сайта, дезинформацию или разжигание ненависти. С сайта стало исчезать гораздо больше материалов, чем раньше, и многие из них ошибочно.

В период с апреля по июнь 2020 года было удалено около одиннадцати миллионов фильмов, что почти вдвое больше, чем раньше. В связи с этими материалами сайт получил более 320 тыс. ссылок, что также в два раза ценнее, чем когда-либо прежде. Выяснилось также, в частности, что более половины из этих 11 миллионов фильмов остались удалено с ютуба чтобы никто их не видел. YouTubeкажется, он извинился после этих опытов с модераторами-людьми и отправил систему ИИ на дальнейшее изучение.

После периода первоначальной эйфории от новой волны текстовых генераторов, таких как GPT-3 будущее отражение. Оказалось, что люди все же создают лучший контент, чем ИИ из-за проблем искусственный интеллект с логическим обоснованием. Исследования показали, что текстовые генераторы на основе искусственного интеллекта способны создавать грамматически правильный контент, но когда дело доходит до соблюдения законов окружающего мира, люди все равно понимают их лучше.

Группа ученых из Университета Южной Калифорнии и нескольких других американских университетов разработала исследовательские тесты. навыки логического мышления. Они заключались в составлении предложений с использованием заданных существительных и глаголов. Один из текстовых генераторов Unified Language Model получил от ученых следующие слова: dog, frisbee, throw, catch. Он создал предложение: «Две собаки бросают друг другу фрисби». Хотя это понятно и грамматически правильно, человек вряд ли так напишет. Образ собак, бросающих фрисби друг в друга, не так уж и причудлив, но мы склонны видеть людей в роли метателя.

Юйчен Линь, исследователь предположил, что тексты, сгенерированные искусственным интеллектом в подавляющем большинстве грамматически правильны, но сценарии, которые они предлагают, либо невозможны, либо слишком причудливы для мира, в котором мы живем. ИИ также создал следующее предложение: «Мусорное ведро стоит под или на столе». Пожалуй, можно, но изображение корзины на столе и даже под столом кажется причудливым и необычным. Исследователи отмечают, что нейронные сети они часто не могут развить навыки логического мышления, потому что их обучение основано на запоминании вещей из наборов данных, и поэтому они не понимают окружающий мир.

Скорее всего болезненный провал ИИ, который не так широко обсуждается и описывается в СМИ, как громкие анонсы несколько лет назад, — это то, что случилось со знаменитым Watson от IBM, который должен был поддерживать, среди прочего, диагностика рака. Оказалось, что одно дело выиграть игровое шоу, а другое — стать врачом. Как мы помним, и МТ писал об этом много лет назад, эта система даже должна была «лишать врачей работы». Когда Уотсона поместили в больницу, он очень хорошо анализировал данные (например, сканирование человеческого тела), но не смог подобрать терапию в соответствии с потребностями конкретного пациента и совершил другие ошибки, которые его дисквалифицировали. Более подробно мы расскажем об этой истории в статье об ИИ в медицине.

Пока нет, но ИИ «все сможет»

Несмотря на несовершенство и неудачи алгоритмов, специалисты не теряют оптимизма, рассматривая все эти проблемы как очередные этапы эволюции ИИ, специфические узкие места в развитии, которые при преодолении.

пионер ИИ, Джефф Хинтон (4), руководитель группы, работавшей над известным система распознавания изображений, IMAGEnet, утверждает, что «глубокое машинное обучение может все». Он работал с глубоким обучением с 80-х годов, но тогда его эффективность была ограничена нехваткой больших ресурсов данных и вычислительной мощности. Его непоколебимая вера в эту технику в конечном итоге очень окупилась. Почти десять лет назад команда ImageNet, разработанная его командой, добилась значительных успехов в точности, начиная с последнего десятилетия. новая эра ИИ.

«Я верю, что глубокая наука сможет справиться с чем угодно, но я также думаю, что грядут некоторые концептуальные прорывы. Например, в 2017 году Ашиш Васвани и другие представили преобразователи, полученные из уточненных векторов, для представления значений слов. Это был концептуальный прорыв. Сегодня он используется почти во всех лучших программах обработки естественного языка (…)

Нам также нужен огромный масштаб. , то есть параметры. То, что мы сегодня считаем действительно большой моделью, GPT-3, имеет 175 миллиардов. Значит, он в тысячу раз меньше мозга. GPT-3 теперь может генерировать довольно правдоподобный текст, и он все еще крошечный по сравнению с мозгом.

Такие люди, как Хинтон, не рассматривают ограничения машинного обучения как фундаментальную проблему, которая ставит под сомнение смысл развития ИИ. Для них это просто сложные вопросы, которые еще не решены.

Добавить комментарий