Наверх
Нет комментов 20/03/2017

Нейросеть научили определять объекты и крутость по фото

Нейросеть научили определять объекты и крутость по фото

Машинное обучение, нейросети и искусственный интеллект открыли новую главу в истории человечества, расширив наше мировоззрение и возможности. Нейронные сети были разработаны еще в 50-х годах прошлого века, однако из-за отсутствия определенных знаний и аппаратных ограничений ЭВМ того времени, подолгу не приносили практической пользы. Сегодня нейронные сети задействуют повсеместно: начиная от пивоварения и заканчивая медициной. Но наибольшую известность технология получила благодаря развлечениям. MSQRD, Prisma, FindFace — это лишь малый список приложений, в основе которых лежит работа нейросетей. На днях этот список пополнился еще одним ресурсом под названием Everypixel.

Everypixel — поисковая система для подбора стоковых изображений. В отличие от большинства подобных сервисов она имеет большее количество инструментов и представляет собой агрегатор фотобанков. Однако главной фишкой сервиса является специальный алгоритм для оценки привлекательности. Помимо прочего, он умеет распознавать объекты, эмоции и даже действия, запечатленные на изображении.

Несколько лет назад профессор Фей-Фей Ли и студент Стэнфордской лаборатории искусственного интеллекта Андрей Карпати разработали похожую технологию под названием NeuralTalk. С помощью этого программного обеспечения и машинного зрения компьютер распознавал и описывал увиденное в режиме реального времени.

Важно отметить, что Everypixel построена на принципах глубокого машинного обучения. Уже сейчас система демонстрирует достаточно хороший уровень оценки и идентификации, однако с потреблением большого количества информации её результаты будут только улучшаться.

По словам разработчиков, Everypixel призван улучшить поисковую выдачу и изменить ситуацию на монополизированном рынке сервисов для поиска стоковых изображений.

Источник: Keddr, vc.ru, everypixel

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.

Добавить комментарий

Такой e-mail уже зарегистрирован. Воспользуйтесь формой входа или введите другой.

Вы ввели некорректные логин или пароль

Извините, для комментирования необходимо войти.

Modal box

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: