本网页已闲置超过3分钟,按键盘任意键或点击空白处,即可回到网页
最热资讯


亲,“电路城”已合并升级到更全、更大、更强的「新与非网」。点击查看「新与非网」
我们将尝试构建一个人机交互(HCI)模块,该模块智能地编排5个并发运行的AI模型,一个模型馈入另一个模型。用于面部检测,头部姿势估计,面部界标计算和注视角度估计的AI模型可识别手势控制输入并触发映射的动作。部署了一个子线程来运行脱机语音识别,该线程与父进程进行通信以基于用户的话语给出并行控制命令,以辅助和增强手势控制。
控制方式
有4种控制方式在系统中定义,以确定用户输入的模式。我们可以使用手势在控制模式之间切换。
控制模式0:无控制
手势和声音导航已关闭
控制模式1:凝视角度控制
鼠标随着视线角度移动(更快)
控制模式2:头部姿势控制
鼠标移动时头部方向改变(较慢)
控制模式3:声音控制
鼠标在4个方向上滑动,并根据用户的话语进行键入
一个雷达四种手势:利用毫米波完成精细化手势识别的软硬件平台搭建
2020-01-03
语音控制+人脸识别——二次开发 Parrot 无人机!
2016-11-21
Snapdragon XR1的芯片支持语音控制和头部跟踪交互
2018-05-29
《来实战》之智能车开源项目04:好玩的人工制杖,简单语音处理实现
2020-03-16
基于CSR 102x的语音蓝牙遥控器解决方案
2020-04-28
智能音箱太贵,工程师决定用树莓派自己做,只花了不到30美元
2019-07-06
使用在ESP32上运行的TensorFlow Lite创建一个语音控制的机器人
2021-03-05
基于Thunderboard Sense 2的手势识别
2021-04-15
讨论