Google теперь позволяет искать песни, просто напев их, а также в скором времени будет показывать информацию о заведениях в режиме Live View и многое другое

Google провела небольшое онлайн-мероприятие Search On, во время которого рассказала о том, какие нововведения ждут сервисы Google Search, Google Maps и другие. О самых интересных новшествах можно прочитать в данном материале.

Уже довольно давно Google Maps показывает занятость того или иного заведения. Благодаря этому можно выбрать ресторан, где сейчас поменьше людей или торговый центр, в котором шоппинг будет поспокойнее. Но если ранее увидеть информацию о занятости можно было только тапнув на конкретное место, то в скором времени эта информация будет отображаться непосредственно на карте.

Кроме того, если вы выберете какое-нибудь заведение на карте, то можете увидеть табличку Health & Safety, которая будет содержать информацию о различных ограничениях, действующих там. Это касается необходимости бронирования, ношения маски, температурного скрининга и т.д.

Технология BERT теперь используется практически во время каждого запроса на английском языке, помогая пользователям получать более релевантные поисковые выдачи.

Каждый день один из 10 поисковых запросов в Google Search написан с ошибкой, который система, как правило, предлагает исправить. Google анонсировала новый алгоритм проверки правописания, который использует глубокую нейронную сеть для существенного улучшения расшифрования орфографических ошибок. Он позволяет понять контекст неправильно написанного слова, благодаря чему поисковик может выдать правильный результат менее чем за 3 миллисекунды.

Google Search порой бывает сложно понять очень специфические конкретные запросы. И ответ на данный запрос может находиться глубоко внутри веб-страницы. Поисковик теперь умеет не просто индексировать страницы, но и отдельные отрывки с этих страниц. Лучше понимая релевантность отдельных отрывков, а не только страницы в целом, Google Search может найти именно ту информацию, которую ищет пользователь. Эта технология на 7% улучшит поисковые запросы на всех языках по мере ее глобального распространения.

А вот, чтобы сделать общие запросы более релевантными для пользователей, в поиске будут использоваться подтемы. Они позволят выдавать более соответствующую вашему запросу информацию. Данное нововведение заработает ближе к концу этого года.

Новый ИИ-подход позволяет понимать глубокую семантику видео и автоматически определять ключевые моменты. Благодаря этому система делает отметки на таймлайне, между которыми вы можете переключаться, как между главами в книге. Таким образом, можно сразу перейти к нужному моменту рецепта или посмотреть победный гол. Google начала тестировать данную технологию в этом году и ожидает, что к концу 2020 года 10% поисковых запросов будут ее использовать.

С 2018 года Google работает над Data Commons Project – открытой базой статистических данных, которая была основана вместе с U.S. Census, Bureau of Labor Statistics, Мировым банком и другими организациями. Объединение наборов данных было первым шагом, и теперь эта информация стала более доступной и полезной с помощью Google Search.

Отныне, когда в поиске вводят такой запрос, как “how many people work in Chicago” (сколько людей работает в Чикаго), система использует обработку естественного языка, чтобы сопоставить поиск с одним конкретным набором из миллиардов точек данных в Data Commons, предоставляя правильную статистику в наглядном, легком для восприятия формате. Кроме того, будут отображаться другие релевантные данные и контекст, например статистика по другим городам, что позволит изучить тему более подробно.

Для журналистов Google подготовила новый набор инструментов Journalist Studio, который позволяет делать работу более эффективно. К примеру, инструмент Pinpoint помогает быстро искать нужную информацию среди сотен тысяч документов, автоматически идентифицируя и организовывая данные по наиболее часто упоминаемым людям, организациям и локациям. Журналисты смогут зарегистрироваться, чтобы запросить доступ к Pinpoint начиная с этой недели.

3D-объекты и дополненная реальность в поиске Google уже давно не новость, но компания продолжает пополнять коллекцию. К примеру, теперь можно с легкостью рассмотреть новенький Volvo XC40 Recharge со всех сторон и в различных расцветках.

Технология AR также может быть полезна во время дистанционного обучения в школах. Ученики, к примеру, могут рассматривать в дополненной реальности различные молекулы, пока учитель объясняет что к чему.

Также с помощью Google Lens можно сканировать различные уравнения и воспользоваться поиском для их решения.

Google Lens может быть полезной и для шоппинга – достаточно отсканировать фотографию, после чего система проанализирует различные вещи на изображении и найдет похожие варианты.

О режиме Live View в Google Maps мы вам уже неоднократно рассказывали. Он позволяет ориентироваться в пространстве при помощи камеры смартфона. Так вот если ранее вы могли видеть только стрелки для навигации, то в скором времени в Live View будут отображаться названия заведений и некоторая информация о них.

Ну и в качестве десерта – технология Hum to Search. Google Search при помощи машинного обучения сможет распознавать песни, которые вы просто ему напоёте.

Достаточно спросить у ассистента “What is this song?” (Что это за песня?) или нажать на кнопку Search a song, и пропеть отрывок, который засел у вас голове.

Я попробовал несколько раз понапевать любимые песни и пару раз Google все-таки смог угадать что же я от него хочу. Думаю, потенциал у этой технологии определенно есть.

Напишите в комментариях какое из нововведений вы считаете наиболее полезным для вас. И смог ли Google распознать напетую вами песню? :)

Источник: Google

Please wait...
Теги: , , , , , , , , , , , , , , ,
0
0 Комментарий
guest

Межтекстовые Отзывы
Посмотреть все комментарии
Наверх