Искусственный интеллект самостоятельно учится побеждать в видеоиграх

Искусственный интеллект самостоятельно учится побеждать в видеоиграх

  • Юля Рябухина
  • http://komandda.com/

Гугл, которому все мало собственного господства, занимается развитием множества проектов. Одни взлетают, другие – Гугл Glass. Но ИИ – дело совершенно верно занимательное.

ИИ от компании хороша не пробует довести собственного создателя до смерти как в сериале “Шерлок”, а просто учится играться в игры. Играться и побеждать.

Подобный опыт уже когда-то проводился. Тогда ученые сохраняли надежду, что компьютер обыграет игрока в шахматы. Для этого интеллект для начала научили игре, продемонстрировали принцип, а через какое-то время упорных тренировок он победил человека в шахматы.

Сейчас дела обстоят еще грандиознее – никто ничего машине не показывал. У ИИ имеется игра и он сам обучается, понимает ее правила и находит оптимальную стратегию победы. По следующему видео мы видим, что около 200 попыток у автомобили ушло на осознание сути игры, еще 400 – дабы полить навык, и на 600-ом забеге компьютер побеждает.

Способом ошибок и проб совокупность уже обучилась играться и побеждать в 49 ретро-играх из 80-х, те, что для Atari 2600.

На данном этапе команда разработчиков пробует научить трудиться ИИ с более сложными играми, созданными по окончании атари, в 90-е. Пока же, программа показывает опытные результаты, прям как у геймеров 80-х, в таких играх как Space Inviders либо Breakout. А в 29 играх совокупность по большому счету была лучше человека. какое количество времени пригодится программе, дабы пройти трехмерную игру, узнаем позже.

А в то время, когда дело дойдет World Of Tanks либо DOTA 2, что тогда? Сохраняем надежду, интеллект не перегреется.

За разработку программы обучения ИИ отвечает английская компания DeepMind. Гугл приобрели ее в прошедшем сезоне больше, чем за полмиллиона долларов. И в случае если в начале 2014 люди не могли осознать – что это за проект, в который компания положила так много объяснения и денег их были туманны, теперь-то возможно наблюдать на первые результаты.

Еще в 2012 было как мы знаем, что парни из тогда еще стартапа DeepMind желают создать совокупность, которая думает. И вот сейчас мы видим, как она думает и обучается.

По условиям опыта, что проводится над ИИ, программе была дешева информация о размещении объектов на начальном счёте и экране. Дальше ученые на стульчик и наблюдали со стороны, как машина тыкала во все без исключение кнопки чтобы выяснить, что случится и какое ее воздействие приведет к повышению счета. Весьма интересно, за какое время ИИ набьет 2048…

Для Гугл эта разработка в будущем применима для многих сфер: самообучающиеся беспилотные машины, голосовой ассистент, переводчик Гугл Translate.

Как в играх работает искусственный интеллект


Темы которые будут Вам интересны: