Чего не выучит ИИ, того не выучит Терминатор
Технологии

Чего не выучит ИИ, того не выучит Терминатор

Автомобиль, несомненно, машина. Двадцать лет назад мы сочли бы нелепым говорить, что его можно научить пути от дома до работы и обратно. Однако сегодня это кажется нам вполне мыслимым.

Пример хорошо показывает, как работает машинное обучение Искусственный интеллект АльфаГо созданный командой DeepMind Google. С мастером игры Го у ее создателей не было бы ни малейшего шанса, но работа мастера превосходит этого мастера. Это потому, что машина «сама по себе» научилась играть на высоком уровне, сыграв десятки тысяч игр с реальными и виртуальными игроками. Так или иначе, если верить сообщениям из научной прессы, вышеупомянутый DeepMind больше не нуждается в своих создателях, по крайней мере, когда дело касается образования — он начал развиваться и совершенствоваться сам, получая необходимую ему информацию. «Этот компьютер способен самостоятельно учиться на предыдущих примерах и формировать логические привычки», — заявили ведущие технологи DeepMind Алекс Грейвс и Грег Уэйн.

Это стало возможным благодаря внедрению systemu Дифференциальный нейронный компьютер (DNC), который с помощью нейросети способен добывать нужные ему кусочки знаний и встраивать их в соответствующие места искусственного интеллекта, стараясь делать это максимально быстро и логично. Так что это работает так же, как человеческий мозг. Специалисты Google также показали, как это работает на практике. Когда системе DNC объяснили, что такое генеалогическое древо, она тут же построила его, найдя в сети все возможные отношения между выбранными людьми и постоянно оптимизируя и обновляя свою память, чтобы делать то же самое в будущем еще быстрее и эффективнее!

Схема архитектуры дифференциального нейронного компьютера

Это еще не все. Затем системе DNC была показана карта лондонского метрополитена, которая сразу же начала предлагать оптимальные соединения и новые решения для улучшения связи между отдельными станциями. Делал он это, однако, не как обычный компьютер, кропотливо анализируя все возможные варианты, а действуя на основе заученных закономерностей и логических связей, которые сам обнаруживал и подстраивал под сложившуюся ситуацию.

Google — настоящий лидер в исследованиях и разработках методов машинного обучения ИИ. В конце ноября прошлого года появилась новость о том, что искусственный интеллект Google обучается переводы между языками, которые он не знает. Он называется и работает благодаря инструменту под названием Нейронный машинный перевод Google. В отличие от известного переводчика для пользователей Интернета, он не требует от системы «знания» языков.

Логотип Google, связанный с переводами на разные языки

В то же время известно, что Google создает новый механизм перевода текста в своем онлайн-переводчике. Решение, основанное на искусственном интеллекте и нейронных сетях, заключается в том, чтобы переводить тексты на другой язык с точностью, аналогичной профессиональным переводчикам. Компания Quartz сообщила о новом решении на основе собственной информации.

Доступный в настоящее время онлайн-переводчик Google основан на анализе отдельных предложений. Алгоритм разбивает предложение на отдельные слова, переводит их на основе словаря и пытается сопоставить на том языке, на который должен быть выполнен перевод. С другой стороны, новое решение будет использовать в работе искусственный интеллект и нейронные сети. Согласно анонсам, одна из сетей будет использовать словарь для анализа всего предложения и определения того, что оно означает, а другая будет на этой основе генерировать переведенный текст, отображаемый на экране. Google предполагает, что новое решение будет совершать на 80% меньше ошибок при переводе, чем доступный в настоящее время переводчик. Проведенные тесты показали, что подготовленный метод перевода в случае перевода с испанского языка на английский язык достиг 5 баллов по 6-балльной шкале, где максимальная оценка – безупречный перевод. Аналогичные результаты дает опытный переводчик. Текущий переводчик способен достичь уровня 3,6 балла.

Искусственные нейроны работают

История искусственного интеллекта всерьез начинается с персептрон, изобретение 50-х годов, основной задачей которого было именно самообразование. Название связано с каким-то устройством — и правильно, ведь изобретатель, психолог Франк Розенблатт, изначально думал о машине, построенной по образу биологических организмов и способной к обучению. На самом деле, однако, речь идет об определенном алгоритме, который был реализован программно сначала на универсальном компьютере, а затем на компьютере со специализированной периферией. Персептрон — это алгоритм классификации: он изучает класс и дает вам ответ, принадлежит ли ему входной набор данных или нет. Первая модель собирала данные с 400-пиксельного оптического сенсора и определяла, соответствует ли видимая геометрическая фигура изученному образцу. Персептрон является одним из нескольких типов искусственный нейрон — устройства со многими входами и одним выходом, дающие только один ответ (чаще всего «да» или «нет»).

Схема архитектуры дифференциального нейронного компьютера

Обычно вычислительные машины помогают решать задачи по-другому: правила поведения определяет человек (программа), и преимущество использования машины только в том, что она не ошибается, не устает и работает быстрее нас. . Но запрограммированная человеком программа может справиться только с задачами, для которых метод решения уже известен. Мы связываем обучение с процессом и изменениями, а алгоритм — с чем-то фиксированным и предопределенным.

Учимся распознавать изображения с помощью ИИ

Однако есть много проблем, которые мы не можем решить. У нас есть много данных для ответа, но мы не можем найти или точно описать соответствующие правила поведения. Примером может служить поведение рынка связанных финансовых товаров и инструментов. Интуиция подсказывает, что их предыдущее поведение оказывает большое влияние на их поведение в ближайшем будущем. Однако данных так много, а взаимосвязи настолько запутаны, что мы не можем найти формулу, чтобы предсказать это будущее. Есть и проблемы у человека, которые тривиальны, но трудно поддаются описанию, например, распознавание фигур на картинках. Мы можем отличить изображение кошки от изображения собаки, но мы не знаем простой программы, которая позволила бы машине делать то же самое.

И именно в этих ситуациях мы можем использовать нейронную сеть, т.е. алгоритм обучения, который методом проб и ошибок будет приходить к организации элементов, позволяющих находить ответы.

Вышеупомянутый персептрон представляет собой простейшую нейронную сеть, состоящую из одного искусственного нейрона. Он имеет несколько входных данных с назначенными им весами, которые определяют, как размер входных данных влияет на результат. Набор данных со всех входов подставляется в некоторую формулу, заданную программистом — в исходном персептроне это было сложением. Если сумма всех входных данных (включая веса) превышает заданный порог, персептрон ответит положительным (логическая 1) и отрицательным (логический 0), если нет. Нетрудно заметить, что такая система ненамного лучше обычных логических вентилей. Сегодня используется другой тип искусственного нейрона, который дает реальный числовой ответ, то есть не просто 0 или 1, а любое число между ними.

Нейронная сеть учится на примерах — ей нужно предъявить ряд уже решенных примеров. Процесс обучения сети можно начать, назначив равные или случайные веса каждому входу. Мы проверяем соответствие ответа сети желаемому результату, а затем меняем веса, чтобы результат приближался к желаемому ответу. В первом персептроне 50-х годов шкалы регулировались потенциометрами, первоначально регулируемыми вручную. Однако механизм регуляции веса также является частью нейронной сети, т.н. правило обучения, и оно работает автоматически. Персептрон как нейрон остается сложным для обучения, потому что изменения входных величин или весов имеют либо суммарный, либо нулевой эффект — вы не можете наблюдать, как незначительные изменения приближают отклик сети к желаемому результату.

У одного искусственного нейрона мало возможностей для решения проблем. Однако многие нейроны могут быть объединены в слои, где один слой передает результаты следующему, вплоть до самого верхнего, дающего ответ.

Простейшие нейронные сети предоставляют информацию только в одном направлении — каждый нейрон отвечает на один набор входных данных только один раз. Более сложные сети recurencyjneэто означает, что данные, поступающие из одного из скрытых слоев, попадают в один из предыдущих слоев. Обратная связь заставляет сеть через некоторое время достичь состояния равновесия и «решить» конкретный ответ.

Структура сети (связи между нейронами) и механизм действия каждого нейрона (формула, по которой подставляются входы) обычно заранее заданы. Базовая память сети представляет собой набор весов, параметров, определяющих степень влияния отдельных входов на результат данного нейрона. Сети обычно имеют два взаимоисключающих режима работы: режим обучения i режим работы. В последнем они уже не меняют значения связей между нейронами; сеть только дает ответы, но не учится на каждом из следующих примеров.

Схема многоуровневой нейронной сети

Процесс обучения может контролироваться человеком, если проблема, которую нужно решить, до некоторой степени понятна, и мы ожидаем, какими должны быть промежуточные шаги для решения. Затем определяется, какие признаки сеть должна искать во входном наборе данных. Например, при распознавании лиц на изображениях нейронные сети обучаются заблаговременно обнаруживать высококонтрастные области, обычно представляющие изображение носа и глаз.

Автоматическое обучение можно использовать, когда проблема слишком сложна или когда определяемые человеком характеристики приводят к неудовлетворительному решению. Таким образом, обучение сети должно быть достаточно сложным, многоуровневым, чтобы оно могло обнаруживать абстракции более высокого порядка во входных данных. Поскольку неконтролируемые обучающие сети не преследуют заданный результат, они могут обнаруживать закономерности и зависимости, о которых мы раньше не знали. Это делает их полезными для анализа явлений, модель которых неточна или неполна, — и это можно сказать почти обо всех социальных или финансовых явлениях.

Ах, эти дети, то есть надежды и разочарования

Наука у нас ассоциируется в основном с детством, и именно детский способ получения знаний специалисты Лаборатории анимационных технологий Университета Окленда в Новой Зеландии хотят использовать для машинного обучения. Программа BabyX это попытка буквально воссоздать ситуацию ребенка, обучающегося в школе. Как объясняет один из авторов программы Марк Сагар: «Мы хотели создать компьютер, который может испытывать, имеет воображение, а также что-то вроде собственного существования».

Марк Сагар известен созданием симуляций человеческого лица, которые можно увидеть, среди прочего. в фильмах «Аватар» или «Кинг-Конг». Детское лицо BabyX было создано с помощью 3D-программ для создания анимации лица, как и другие изображения, которые появляются в играх и фильмах. Команда Sagara также создала упрощенную модели некоторых частей человека мозг (например, гиппокамп), которые при соединении друг с другом способны выполнять довольно сложные операции. Это означает, что BabyX имеет в своем «черепе» алгоритмы, имитирующие нейроны человека и структуры мозга, сделанные из них.

Такая программа позволяет ему слышать и учиться, что сопровождается предельно естественной мимикой и эмоциями. В фильме показано, например, что искусственный ребенок группы «Сагара» испуганно реагирует на звук громкого удара по руке. Это связано с тем, что модель мозга присваивает определенный фрагмент информации, такой как громкий звук, определенным «мимическим мышцам» ребенка, описанным на специальных ползунках, видимых в фильме. Более того, BabyX видит. Оклендские инженеры смоделировали работу клеток человеческого глаза и весь мозговой процесс, связанный со зрением. Помимо нейронной системы, BabyX поддерживают другие системы, позволяющие ему распознавать эмоции, мимику и лица людей. Вот почему этот ребенок может так убедительно реагировать на людей, сидящих за компьютером или рассматривающих картинки из детской книги.

Он учится по-человечески. Программисты показывают ему большое количество примеров и позволяют определить алгоритм описания предмета. Например, после осмотра достаточно большого количества щенков создается алгоритм, определяющий, что если что-то коричневое, маленькое и имеет уши определенной формы, то это может быть собака. С каждым последующим примером алгоритм становится все более и более точным, и, наконец, BabyX может точно определить, что собачье, а что человеческое.

Интересно, что, как и в случае с детьми, построенными специалистами по машиностроению, они тоже могут обмануть большие ожидания своих родителей. О таком разочаровании мы узнали от группы ученых из Национального института компьютерных наук в Японии. Он намеревался отправить свой ИИ по имени «Тодай» в Токийский университет, но был вынужден отказаться от этой идеи. Проект, о котором мы писали в «МТ», осуществляется с 2011 года. С каждым годом система добивается все лучших результатов. Однако в 2016 году выяснилось, что он не улучшил результат своего предыдущего теста. Исследователи решили, что к 2022 году, который должен был стать годом начала обучения ИИ в престижном университете, добиться результатов, необходимых для вступительного экзамена, не удастся.

Член команды Норико Араи прямо заявила, что ИИ не может решать вопросы, требующие признания значения в более широком контексте. «Машины еще не овладели человеческим критическим мышлением и навыками решения проблем, поэтому не волнуйтесь, они быстро отберут нашу работу», — заключила она.

Добавить комментарий