DIY穷人版谷歌眼镜,自定义手势操控,树莓派再一次被开发新玩法(谷歌眼镜功能展示视频)

坤发子奥菲寺

量子比特报告|微信官方账号QbitAI

通过帅气的手势操控投射在眼前的电子影像,是科幻片中的基本配置。



现在,有人把它从科幻电影带入了现实。动动手指,控制眼前的世界。

热衷于制作智能小工具的油管博主Teemu Laurila用树莓Pi DIY了一副可以识别自定义手势的AR眼镜。



把你要设置的手势输入设备,实现炫酷操作。



我有一个大胆的想法!



自制AR眼镜中的世界

让我们开始表演吧!

手指上下按住,即可完成亮度调节指令。(这是你的第一人称视角)



手势识别叠加显示在镜头成像中。



让我们有一个更直的视角,透过眼镜看效果。



DIY过程

AR眼镜科技感十足,让现实世界充满了赛博朋克。

那并不像它那样酷。弹指一挥间就能运行命令,不一定要广为传播?

就这么做吧,首先你需要设计设备会包含哪些部件。



硬件部分除了机身眼镜架,还包括镜头组,0.6 mm PETG投影镜片,配件采用聚乳酸材料3D打印。

毕竟是智能设备的DIY。怎么能不请万能迷你电脑树莓派上台呢?

软件部分,手势识别程序依赖于python开源项目MediaPipe

除此之外,Teemu Laurila还写了两个程序脚本。

一个是捏手指控制亮度的应用实例,另一个是实时视频中捕捉手势,发送到电脑进行处理,通过智能眼镜叠加。

所有条件都满足,试着组装一下。

经过多次调整,所有部件最终组合成以下装置。



要让程序在设备上可用,首先你需要一个Raspberry Pi作为程序支持。

然后设置内存、驱动、运行环境、多媒体接口、网络等条件,对整个设备进行超频。

硬件环境准备就绪后,调试应用程序。

应用功能的核心——手势识别模型由三个框架组成,包括手掌识别模型BlazePalm(用于识别手的整体框架和方向)、地标模型(用于识别三维手部节点)和手势识别模型(用于将识别出的节点归类为一系列手势)。

在识别算法的训练过程中,BlazePalm模型识别手掌的初始位置,优化了移动终端的实时识别。

在BlazePalm识别的手掌内,地标模型识别21个实心节点坐标。

在此基础上,手势识别模型根据关节角度识别每个手指的状态,将状态映射到预定义的手势,预测基本的静态手势。

通过Raspberry Pi Zero W捕捉手势信息,图像传输到电脑,由手势识别AI处理。之后传输到设备,相应的手势命令发出去,同步到投影图像中。

它的前世今生

等一下,有一台照相机、一台微型投影仪、一台计算机处理器和一台侧投影显示器。这样的AR眼镜好像在哪里见过。



没错,就连使用的手势识别代码都是谷歌开源的。

虽然没有谷歌智能眼镜类似智能手机的功能,但相比其语音控制和触摸功能,Teemu Laurila的智能眼镜选择使用自定义手势触发命令,更是黑科技。

此外,谷歌眼镜摄像头仅用于拍照和视频,Teemu Laurila的摄像头还承担了接受手势指令和传输指令的功能。同时选择了更大的方形镜头进行投影,方便视野观察。

这款设备是Teemu Laurila完成的第二版智能眼镜,在外观和性能上都进行了优化。

在材质的选择上,使用0.6mm厚的投影镜头,而不是1mm厚;聚乳酸代替丙烯酸;增加了螺栓固定支架,抛弃了胶水。

最重要的优化是相机采用了方形镜头,让画面更清晰。



谷歌眼镜功能

Teemu Laurila分享了他在GitHub平台上添加的两段代码,供有兴趣的观众复制。

参考链接:
https://www . toms hardware . com/news/raspberry-pi-smart-glasses-recognize-hand-手势
https://www.youtube.com/watch? v = 60 OS 5 iqdbsw
https://www . YouTube . com/watch?v=Gu4oOYo38rQ

GitHub链接:
https://github.com/teneppa/camerastream
https://github.com/teneppa/handtrackingBrightnessControl

—结束—

量子qbitai头条号签约

关注我们,第一时间获悉前沿科技动态。

您可以还会对下面的文章感兴趣

使用微信扫描二维码后

点击右上角发送给好友