Искусственный интеллект самостоятельно учится побеждать в видеоиграх

Google, которому все мало своего господства, занимается развитием множества проектов. Одни взлетают, другие – Google Glass. Но искусственный интеллект – дело точно интересное. ИИ от компании добра не пытается довести своего создателя до смерти как в сериале “Шерлок”, а просто учится играть в видеоигры. Играть и побеждать.

Подобный эксперимент уже когда-то проводился. Тогда ученые надеялись, что компьютер обыграет игрока в шахматы. Для этого интеллект для начала обучили игре, показали принцип, а через какое-то время упорных тренировок он победил человека в шахматы. Теперь дела обстоят еще грандиознее – никто ничего машине не показывал. У ИИ есть игра и он сам учится, понимает ее принципы и находит оптимальную стратегию победы. По следующему видео мы видим, что около 200 попыток у машины ушло на осознание сути игры, еще 400 – чтобы полить навык, и на 600-ом забеге компьютер выигрывает. Методом проб и ошибок система уже обучилась играть и выигрывать в 49 ретро-играх из 80-х, те, что для Atari 2600.

https://www.youtube.com/watch?v=cjpEIotvwFY

На данном этапе команда разработчиков пытается научить работать ИИ с более сложными играми, разработанными после атари, в 90-е. Пока же, программа показывает профессиональные результаты, прям как у геймеров 80-х, в таких играх как Space Inviders или Breakout. А в 29 играх система вообще оказалась лучше человека. Сколько времени понадобится программе, чтобы пройти трехмерную видеоигру, пока неизвестно. А когда дело дойдет World Of Tanks или DOTA 2, что тогда? Надеемся, интеллект не перегреется.

terminator-exoskeleton

За разработку программы обучения искусственного интеллекта отвечает британская компания DeepMind. Google купили ее в прошлом году больше, чем за полмиллиона долларов. И если в начале 2014 люди не могли понять – что это за проект, в который компания вложила так много денег и объяснения их были туманны, теперь-то можно смотреть на первые результаты. Еще в 2012 было известно, что ребята из тогда еще стартапа DeepMind хотят создать систему, которая думает. И вот теперь мы видим, как она думает и обучается. По условиям эксперимента, который проводится над ИИ, программе была доступна информация о расположении объектов на экране и начальном счете. Дальше ученые просто садились на стульчик и смотрели со стороны, как машина тыкала во все подряд кнопки чтобы понять, что произойдет и какое ее действие приведет к увеличению счета. Интересно, за какое количество времени ИИ набьет 2048…

google-deepmind-52e60c52a5a89

Для Google эта технология в будущем применима для многих сфер: самообучающиеся беспилотные автомобили, голосовой помощник, переводчик Google Translate.

Please wait...
Теги: , , , ,
0
1 Комментарий
Сначала Новые
Сначала Старые Популярные
guest

Межтекстовые Отзывы
Посмотреть все комментарии
kostik
kostik
9 лет назад

Майбутнє вже настало

Please wait...
Наверх