首页/文章/ 详情

如果Pura X能眼动翻页算黑科技,那我眼动控制CATIA模型旋转算什么

21小时前浏览12
先看最终效果:
这两天,一款打着“人人都买得起”、“友商想不到”的手机产品发布了——华为Puar X。作为一个CATIA内容创作者,小狼不会去评论手机的性能、参数、使用体验,咱们单就它其中一个功能讨论:眼动翻页,来展开讨论。
图片来源:华为官网
这个功能不必过多解释,上面的动图已经展示得很生动了。
作为汽车工程师圈里的程序员,小狼更好奇的,是这个技术实现的原理。于是,在被生物钟支配而早早醒来的周末早晨,我打开了电脑,凭借着之前在mediapipe看到的下面的记忆,开启了“面向DeepSeek的编程”。
和DeepSeek聊天记录实在太过冗长,小编这里通过一个动图给大家直观地展示,我让它修改了多少轮代码:

接下来,说原理:
首先,我们可以踩在巨人的肩膀上,借助人家训练好的模型(如google的mediapipe的facemesh),从一张脸的图片里,提取出详细的信息——事实上,足足有468个三维点。

其实,另一个叫做Iris的模型更适合做这个例子:
iris_tracking_eye_and_iris_landmarks.png
只可惜它更适用于ios/Android等移动设备,不支持在python里做。所以我们退而求其次,使用facemesh来做。
技术上的思路找到了,接下来是逻辑上:
其实合理的做法,是训练一个模型,来判断输入的某一组值,是否为“翻页”这一眼部动作。但我们毕竟不是程序员,所以依旧退而求其次,用一个简单的逻辑来替代:
当规定时间,如0.5s内,眼球中心从下到上的最大变化量超过了某个阈值,我们就认为用户做了“翻页”这个眼部动作。当然这样,识别的准确率也会随之降低。
但,别忘了:我们的目的,只是为了——玩儿~~
最后,把我们的想法和Deepseek交流。这里小狼要再强调一次:我们不能完全依赖AI,要有自己的理解,并指出它给出代码中不合理的地方(尤其是逻辑上),这样才能引导它给出我们想要的东西。以下是我努力将它从放飞自我的路上拉回来的一些截图:

来源:CATIA那点事儿
二次开发汽车CATIApython控制
著作权归作者所有,欢迎分享,未经许可,不得转载
首次发布时间:2025-04-06
最近编辑:21小时前
CATIA那点事儿
本科 CATIA小狼。微信公众号:CATIA那...
获赞 134粉丝 258文章 28课程 16
点赞
收藏
作者推荐
未登录
还没有评论
课程
培训
服务
行家
VIP会员 学习计划 福利任务
下载APP
联系我们
帮助与反馈