2018年06月20日,在日前举行Unite Berlin开发者大会上,Unity发布了专门为增强现实设计的新工具。

  Unity实验室的XR研究主管提蒙尼·韦斯特(Timoni West)表示,名为Project MARS(Mixed and Augmented Reality Studio)的全新Unity扩展将于今年秋季上线,帮助开发者创建可以“存在于现实世界并能对其进行响应的”强大AR应用程序。

  韦斯特在主题演讲中说道:“我们对这个项目的座右铭是:现实是我们的构建目标。换句话说,我们不希望你只考虑为一个设备或为一台主机进行开发。我们希望你可以思考如何令应用程序实际存在于现实世界。思考如何制作出能够以我们期望方式运作的应用程序:具备情景感知,灵活,可定制,能够在空间中运行。”

  Project MARS旨在带来无需定制编码即可创建AR体验的工作流程。例如,这个扩展为开发者提供了一组新工具来绘制特定于AR的空间参数,如接近度,平面大小和距离关系,无需对它们进行编码。它同时提供了一种适用于AR开发的新对象类型。

  这个扩展还通过其“Simulation View(模拟视图)”功能带来了其他几项改进。对于AR face mask,Simulation View可以帮助开发者通过连接的camera了解实时的效果。Simulation View同时提供了多个房间模板,帮助用户模拟AR内容如何在包含可变障碍物的真实房间中作出反应。例如,对于卧室里的床上和起居室中的沙发上,内容的呈现可能有所不同,因此需要用户调整条件。Simulation View同时适用于第三方扩展。

  韦斯特说道:“在MARS之前,不进行编码的情况下甚至几乎不可能设置相对简单的条件。有了MARS,你现在可以在增强现实中创建复杂的多平面体验,可以支持一系列不同的空间。而且你甚至不需要离开桌子去查看具体的效果。”

  韦斯特和Unity实验室的高级软件工程师桥诺·富比世(Jono Forbes)利用3D游戏包演示了如何使用Project MARS创建face mask和AR场景。为了演示这款软件的“超能力”,Unity团队展示了一个独特的样本场景,其中包括在两个独立桌面渲染的景观,然后在彼此之间搭建了虚拟的桥梁。

  尽管一开始出现了小问题(实时技术演示总是不会一帆风顺),但很快我们就看到一位超级英雄从桥的一段跑到另一段,并且开始摧毁物品。简而言之,角色和环境都是以实际大小渲染。

  Unity同时为面部动画制作准备了全新的工作流程,而这有可能令当前动捕设置中的装置,化妆和全身套装成为历史。

  借助Facial AR Remote Component,开发者和创作者可以通过iPhone X上的原深感摄像头捕捉高质量的实况动捕表演。Unity提供了52种混合形状,可以帮助你将表演者的面部表情与动画角色的面部表情相匹配。

  然后你可以在Unity编辑器中裁剪和混合捕捉到的表演,从而减少制作出最终版本所需的镜头数量。

  Unity的一名高级产品经理奈特莉·格兰特(Natalie Grant)表示:“面对如此亲民的面部动捕,任何人都可以利用这一工作流程,并开始迅速创建能够跟上你想法的电影内容。”

  两种新工具的结合,特别是搭配苹果和谷歌不断优化的移动工具包或微软和Magic Leap的下一代硬件时,可以提供更高质量的增强现实内容,并帮助更多的开发者开始为AR技术创建内容。

      IT巨头们都在加快布局AR,一个大AR时代即将普及,向你推荐一个AR实战学习教程,PokemonGo AR项目实战,链接http://edu.manew.com/course/516