Amazon Rekognition: сервис по распознаванию лиц, способный на глубокий анализ изображения

Программный инструмент для идентификации объектов на изображении или видео, по мнению экспертов, должен лечь в основу так называемого «искусственного интеллекта». Но пока именитые разработчики — специалисты Microsoft и Google — сумели добиться успеха лишь в создании продвинутых алгоритмов на основе нейронных сетей, гордо именуемых подобием ИИ. Закрепить успех на данном поприще взялись и в Amazon, объявив о выходе собственного программного комплекса под названием «Amazon Rekognition».

Amazon Rekognition позиционируется авторами проекта как платформа, выделяющаяся на фоне аналогов возможностью глубокого анализа попавших в объектив камеры предметов, сооружений и людей. Данный сервис является частью системы с интегрированным механизмом полномасштабного самообучения, поэтому его потенциал со временем будет только расти, а сам алгоритм идентификации — совершенствоваться.

Ключевой особенностью сервиса значится тот самый «глубокий анализ» — способность не просто уведомить пользователя, что на картинке был обнаружен кот или собака, а с высокой точностью указать даже породу животного. А при использовании Amazon Rekognition для распознавания лица программное обеспечение без труда определит по внешним признакам текущее эмоциональное состояние исследуемой личности. 

По словам технического директора Amazon Вернера Вогелса (Werner Vogels), в основе Rekognition заложена уникальная технология по обучению машинного алгоритма для безошибочного обнаружения отдельных предметов, лиц, общих сцен и даже концепции анализируемой ею экспозиции. Методика включает в себя сравнение двух изображений на основе миллионов признаков, что в теории обеспечит Amazon Rekognition успех использования в коммерческих целях для построения бизнеса. 

Что до применения Amazon Rekognition в реальных условиях, то какие именно услуги разработчики намерены дополнить своим алгоритмом распознавания лиц руководство компании пока не оглашало. 

Источник

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *