Наверх
1 коммент 27/02/2015

Искусственный интеллект самостоятельно учится побеждать в видеоиграх

Искусственный интеллект самостоятельно учится побеждать в видеоиграх

Google, которому все мало своего господства, занимается развитием множества проектов. Одни взлетают, другие – Google Glass. Но искусственный интеллект – дело точно интересное. ИИ от компании добра не пытается довести своего создателя до смерти как в сериале “Шерлок”, а просто учится играть в видеоигры. Играть и побеждать.

Подобный эксперимент уже когда-то проводился. Тогда ученые надеялись, что компьютер обыграет игрока в шахматы. Для этого интеллект для начала обучили игре, показали принцип, а через какое-то время упорных тренировок он победил человека в шахматы. Теперь дела обстоят еще грандиознее – никто ничего машине не показывал. У ИИ есть игра и он сам учится, понимает ее принципы и находит оптимальную стратегию победы. По следующему видео мы видим, что около 200 попыток у машины ушло на осознание сути игры, еще 400 – чтобы полить навык, и на 600-ом забеге компьютер выигрывает. Методом проб и ошибок система уже обучилась играть и выигрывать в 49 ретро-играх из 80-х, те, что для Atari 2600.

На данном этапе команда разработчиков пытается научить работать ИИ с более сложными играми, разработанными после атари, в 90-е. Пока же, программа показывает профессиональные результаты, прям как у геймеров 80-х, в таких играх как Space Inviders или Breakout. А в 29 играх система вообще оказалась лучше человека. Сколько времени понадобится программе, чтобы пройти трехмерную видеоигру, пока неизвестно. А когда дело дойдет World Of Tanks или DOTA 2, что тогда? Надеемся, интеллект не перегреется.

terminator-exoskeleton

За разработку программы обучения искусственного интеллекта отвечает британская компания DeepMind. Google купили ее в прошлом году больше, чем за полмиллиона долларов. И если в начале 2014 люди не могли понять – что это за проект, в который компания вложила так много денег и объяснения их были туманны, теперь-то можно смотреть на первые результаты. Еще в 2012 было известно, что ребята из тогда еще стартапа DeepMind хотят создать систему, которая думает. И вот теперь мы видим, как она думает и обучается. По условиям эксперимента, который проводится над ИИ, программе была доступна информация о расположении объектов на экране и начальном счете. Дальше ученые просто садились на стульчик и смотрели со стороны, как машина тыкала во все подряд кнопки чтобы понять, что произойдет и какое ее действие приведет к увеличению счета. Интересно, за какое количество времени ИИ набьет 2048…

google-deepmind-52e60c52a5a89

Для Google эта технология в будущем применима для многих сфер: самообучающиеся беспилотные автомобили, голосовой помощник, переводчик Google Translate.

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.

1 комментарий

по хронологии
по рейтингу сначала новые по хронологии
1

Майбутнє вже настало

Добавить комментарий

Такой e-mail уже зарегистрирован. Воспользуйтесь формой входа или введите другой.

Вы ввели некорректные логин или пароль

Извините, для комментирования необходимо войти.

Modal box

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: