Перспективні дослідження передбачають, що ми можемо спілкуватися з комп’ютерами майбутнього навіть за допомогою рухів та мови тіла.

нахиліться

Мова тіла часто набагато чесніша за вимовлене слово, звичайно, не обов'язково, тому що вони навчають комп'ютер розуміти рухи в Інституті робототехніки Університету Карнегі-Меллона. Професіонали хочуть більше спілкування між комп’ютером та користувачами.

Машини вчать вміти стежити за рухами ще більшої кількості людей в режимі реального часу, розуміти, що означають різні рухи (включаючи їх пальці), і навіть передбачати, в якому напрямку рух буде продовжуватися в наступну мить.

Для всього цього двоповерховий куполоподібний об’єкт під назвою Panoptic Studio був обладнаний 500 камерами, і комп’ютер повинен був стежити за рухами у 2D. Кілька людей вже працюють із професіоналами, але для подальшого розширення спільної роботи навіть спільними кодексами поділились. Їх результати будуть представлені на конференції CVPR 2017 в Гонолулу наприкінці липня.

Цей тип виявлення руху може бути особливо корисним у самохідних автомобілях майбутнього, наприклад, які б знали, що хтось тільки їде в дорогу, але також могли б допомогти їм поставити такі діагнози, як аутизм або депресія.

Якщо ви коли-небудь захочете дізнатись про подібні речі, як сторінка HVG Tech у Facebook.