Google разрабатывает искусственный интеллект, способный играть в видеоигры

Принадлежащая Google компания DeepMind представила прототип искусственного интеллекта, который способен обучаться разным действиям самостоятельно. В DeepMind отмечают, что использовали совершенно новый подход, отличающийся от программ вроде Deep Blue, обыгравшей в шахматы Гарри Каспарова. Над созданием Deep Blue работала целая команда опытных шахматистов, которые передали программе свои знания. Детищу DeepMind учителя не нужны — программа сама совершает разные действия, смотрит за их результатом, а затем делает выводы, меняя свое поведение.
Google разрабатывает искусственный интеллект, способный играть в видеоигры

Для обучения искусственного интеллекта в DeepMind используют старые аркадные игры. Программа изучает происходящее на экране, а затем начинает действовать методом проб и ошибок — подает разные команды, смотрит, что происходит, и отсеивает неверные действия. Обычно это приводит к тому, что через некоторое время компьютер сам разрабатывает стратегию, позволяющую побеждать в игре. По словам разработчиков, этот алгоритм только кажется примитивным — на самом деле, точно так же обучается любой ребенок в первые годы жизни.

В будущем Google планирует использовать разработку DeepMind в самых разных сферах. Например, умение самостоятельно обучаться будет очень полезно в автоматических автомобилях или программах-ассистентах для смартфонов.