Завдяки новій розробці американського програміста, з голосовим помічником можна буде спілкуватися мовою жестів

Розробник з США Абхішек Сінгх створив унікальне програмне забезпечення, яке буде розпізнавати жести за допомогою камери ноутбука і перетворювати їх в голосові команди для помічника Alexa. Потім відповіді помічника будуть виводитися на екран в текстовому вигляді.

В такому випадку, для цієї програми виступить в якості посередника між глухим людиною і голосовим помічником.

Варто зауважити, що для функціонування такої програми необхідної буде наявність вбудованої камери в ноутбуці, завдяки якій і буде відбуватися візуальний контакт. На даному етапі розпізнати вона зможе тільки американську жестову мову.

Алгоритм глибокого навчання відповідає за розпізнавання. Він реалізований за допомогою фреймворка TensorFlow.js, який дозволяє навчати і запускати нейромережеві моделі в браузері.

Результат пошуку зображень за запитом

Розпізнавати команди жестовою мовою і відображати їх на екрані ноутбук зможе в реальному часі. Колонка в цей же час буде чути і розпізнавати слова комп’ютерами, а через деякий час відповідати голосом, який також виводиться на екран.

Інтерфейс програми розділений на дві частини і оформлений як діалог користувача та голосового помічника.

Нагадаємо, китайська компанія Xiaomi готується презентувати унікальний холодильник, керувати яким можна буде за допомогою голосових команд. Дверцята будуть оснащені 21-дюймовою сенсорною панеллю IPS з покриттям антивідблиску. Великий екран дозволить керувати не лише холодильником, а й іншими системами розумного будинку.