首页/文章/ 详情

仿真技术在HUD系统设计与测试的优势详解

2年前浏览3018

Ansys SPEOS HUD是专业用于汽车抬头显示器设计和分析的直观应用工具,将光学设计集成到CAD平台,评价光学设计和视觉性能。在SPEOS集成到Spaceclaim CAD软件平台以后,SPEOS的光学仿真功能明显提升,不受第三方CAD平台的限制,可以进行光学系统的模拟验证和优化以及多物理场仿真。

近期,Ansys Blog特邀博主Dirk Spiesswinkel对增强现实HUD发表了自己的见解,他认为将增强现实(AR)技术应用到抬头显示器(HUD)后,道路将变得更加安全,另外,该技术还将帮助驾驶员更有信心依靠高级驾驶辅助系统(ADAS)和自动驾驶汽车(AV)技术...


增强现实抬头显示器能告知驾驶员实际路况

什么是AR HUD?

与传统的仪表板相比,AR HUD能让车辆提供更多的信息。例如,该系统可以提示汽车如何解析周围环境、感知危险、规划路线、与其它技术实现通信以及启动ADAS功能。

通常,HUD有三种类型,CHUD、WHUD、ARHUD。目前可用的标准模型,它能够将仪表板信息投射到挡风玻璃前或在驾驶员视野范围内。因此,驾驶员无需转移视线就能实时掌握关于道路和车辆状况的有用信息。


接触式模拟AR标记用高亮提示前车(左上),带有动画箭头的显示器提示驾驶员前方即将转弯(右上),显示器与环境交互,提示驾驶员到下个左转弯的距离(下方)

 将来,高级AR HUD还可投射出与现实环境中的物体相对应的复杂图形。例如,在有雾的夜间,当汽车的热传感器检测到动物或人时,可以向驾驶员高亮显示它们的存在。这样,即便人眼无法透过大雾看见人,驾驶员仍然可以做出及时应对。


所有这些显示系统的通用构件块包括:

  • 由传感器和发动机控制单元(ECU)组成的数据采集系统

  • 评估应显示哪种信息以及如何显示该信息的数据处理系统

  • 显示系统

简单的显示系统可以由挡风玻璃上一系列静态图标或图形构成,较复杂的显示系统还会向驾驶员显示情景动画,最后,全AR显示系统将集成并适应驾驶员所处的环境。

 AR HUD将如何帮助驾驶员轻松掌握自动驾驶技术?

随着ADAS系统越来越多地掌握汽车控制权,HUD能增进驾驶员对这些系统的了解。当人们开始注意到自己不需要那么频繁地操纵方向盘时,他们将会对自动驾驶汽车和自动驾驶技术逐步建立信心。


当驾驶员意识到汽车对危险的感知能力已超越自己时,他们就会开始信赖ADAS和AV系统

 

当前挑战在于,当出现人员在环(human-in-the-loop)的情况时,AR HUD难以在现实环境中设计、测试和验证,甚至有潜在的危险性存在。因此,虚拟原型设计与研发在缩短该技术的上市进程中起着关键作用。

 如何研发HUD系统

传统HUD研发的重点在于生成清晰的图像,从而不会分散驾驶员的注意力。这意味着设计必须考虑如何将其集成进车辆,以及考虑驾驶员的相对位置,否则很难预测在设计周期中究竟会发生什么光学效果。此外,构建物理原型的成本高昂,还可能拖延汽车设计研发进程。现在,工程师可以借助Ansys SPEOS,用虚拟方式解决这些显示器的光学难题,采用仿真解决方案可以在研发早期避免很多潜在缺陷,包括:

  • 动态失真

  • 模糊影像

  • 重影

  • 渐晕

  • 杂散光


为了研发HUD系统,工程师需要确保驾驶员能够清楚地看见信息

 

将AR功能添加到显示器使测试与验证工作更具挑战性。该系统需要进行动态测试,以确保它能够正确地与环境进行交互。举个例子,工程师需要确保系统已登记周边交通要素,并根据这些输入快速显示相关信息,因此,这些系统的用户体验(UX)和用户界面(UI)不仅具有传统显示器所面临的所有光学难题,还增加了可能的时延挑战。

因此,AR系统需要进行道路测试,这意味着它会遇到设计ADAS系统和AV系统时所有的验证复杂性。如果系统要进行道路测试,它也未必会经历所有可能触发潜在问题的场景,也就是说,既能安全又可操作地控制现实环境非常困难。

这需要工程师通过仿真交通和驾驶场景,以便他们能够在所有可感知的场景、变量和边缘情况下评估AR HUD,而不会危及测试驾驶员或道路上行人的人身安全。

 虚拟测试AR HUD的优势

工程师还会发现通过使用仿真技术测试其显示系统还将带来其它好处。例如,仿真能帮助他们在研发早期就考虑用户体验 (UX)和用户界面 (UI)的问题。


工程师正在利用虚拟现实评估AR HUD

 

显示器设计通常会受到汽车挡风玻璃和仪表板研发的制约。因此,通过将这些几何结构输入虚拟现实(VR),工程师就能评估这些约束如何影响系统的观感。随着几何结构在研发过程中发生的变化,工程师无需花费过长的时间就可以评估这些变化对显示器产生的影响。借助仿真技术,工程师能够初步了解HUD将如何:

  • 影响驾驶视野

  • 分散驾驶员的注意力

  • 对延迟、亮度和移动做出的响应

  • 显示信息

  • 影响驾驶员对新信息、安全警报和边缘情况的反应

如何虚拟地测试AR HUD系统

虚拟测试显示器的第一阶段是制作其UI/UX软件的原型。工程师使用 Elektrobit公司的EB GUIDE arware 为HUD系统创建AR内容和嵌入式软件。然后使用Ansys VRXPERIENCE创建基于物理的实时光照仿真,对内容如何显示进行建模。此外,仿真还能测试传感器如何感知世界,以确保数据采集系统正常运行。


仿真显示了HUD系统如何高亮显示车道、路上行人和前方车辆

 

接着,Ansys VRXPERIENCE HMI使工程师能够在沉浸式数字现实环境中体验HUD设计,随后可以将嵌入式软件添加到测试与验证环路中,以便在真实的驾驶条件下虚拟地设计、评估和测试增强现实HUD原型。Ansys VRXPERIENCE 仿真解决方案旨在为前沿无人驾驶系统的迭代过程提供技术支持,还可在 3D 虚拟环境中模拟人机交互 (HMI) 行为,通过视觉仿真、眼部与手指追踪以及触觉反馈,对整个座舱设计进行HMI 测试和验证。

工程师可以使用该设置查看传感器过滤功能如何影响AR HUD系统的性能。由于人类感知运动的方式,AR系统需要比ADAS系统更高的数据采集频率。仿真可以测试车辆运动跟踪功能是否足以让系统提供与现实环境和人类视觉相符的图形。由于评估设计大多在虚拟原型上进行,借助Ansys VRXPERIENCE可减少产品制造所需的昂贵实物模型数量,进而大幅减少测试所需的时间和成本。

 来源:Ansys

Twin Builder光学通用汽车通信自动驾驶数字孪生控制人工智能SPEOS
著作权归作者所有,欢迎分享,未经许可,不得转载
首次发布时间:2022-09-09
最近编辑:2年前
Ansys中国
签名征集中
获赞 291粉丝 479文章 727课程 6
点赞
收藏
未登录
还没有评论
课程
培训
服务
行家
VIP会员 学习计划 福利任务
下载APP
联系我们
帮助与反馈