谷歌如何通过机器学习实现逼真AR实时自拍效果

VR
2019
03/11
12:26
映维网
分享
评论

增强现实可以在物理世界之上叠加数字内容与信息,从而增强你的感知。例如,谷歌地图的AR功能可允许你直接看到叠加在现实世界视图的方向。借助Playground,你就可以通过AR并以不同方式浏览世界。对于最新版本的YouTube Stories,以及ARCore全新的Augmented Faces API,你可以为自拍添加动画面具,眼镜,3D帽子等滤镜。

实现这种AR功能的关键挑战之一是合理地将虚拟内容锚定在现实世界。这个过程需要一套独特的感知技术,需要能够追踪千差万别的表面几何,每一个微笑,每一次皱眉都要准确识别。

为了实现这一切,谷歌采用机器学习来推断近似的3D表面几何形状,只利用一个摄像头输入而无需专用的深度传感器。利用面向移动CPU界面的TensorFlow Lite或可用的全新移动GPU功能,这种方法带来了实时速度的AR效果。所述解决方案与驱动YouTube Stories全新创作者效果的技术相同,并已经通过最新的ARCore SDK和ML Kit Face Contour Detection API向广泛的开发者社区开放。

1. 用于AR自拍的机器学习管道

谷歌的机器学习管道由两个协同工作的实时深度神经网络模型组成:一个在整张图像上运行,并计算面部位置的探测器;在所述位置上运行,并通过回归预测来近似表面几何的通用3D网格模型。精确地裁剪面部可以大大减少对相同数据增强的需求,比方说由旋转,平移和比例变化组成的仿射变换。通过精确地裁剪面部,这允许系统将大部分性能用于预测坐标,而这对于实现虚拟内容的正确锚定至关重要。

THE END
广告、内容合作请点击这里 寻求合作
VR
免责声明:本文系转载,版权归原作者所有;旨在传递信息,不代表国际科技要闻的观点和立场。

相关热点

微软在MWC 2019大会正式发布了HoloLens 2。尽管微软表示这款头显并非主要面向普罗大众,但他们同时正在努力提升自家的混合现实平台。现根据一份最新的专利,微软正计划为智能手机带来混合现实,设想优化混合现实并将其与智能手机结合在一起。
VR
Niantic正在开发一个世界规模的AR平台,并旨在帮助AR开发者快速轻松地创建自己的游戏,无需面对一系列令人生畏的技术挑战。Niantic Real World Platform是这家公司核理念的技术体现:锻炼,探索和社交互动。所述原则在移动客户端表现为一组Java服务器库和Unity C#API,而这项技术是《Ingress》,《Pokemon GO》,即将发行的《Harry Potter:Wizards Unite》,以及未来产品中的核心服务器和客户端引擎的基础。
VR
来自Harmonix的音乐节奏游戏《Dance Central》系列将迎来自己的VR版本:《Dance Central VR》,支持Oculus Quest和Rift。
VR
尽管索尼一直忙于为使用VR技术的方式申请专利不足为奇,但其中一些内容实际上相当有趣 ,比如有几条描述了通过现场特殊观众席观看虚拟电子竞技比赛的内容。
VR
2018年12月,本站报道了Feelreal公司再次计划在众筹网站Kickstarter上推出一款可以为VR头显增加嗅觉功能与触觉反馈的面具。今天,该公司正式宣布,Feelreal多感官VR面具众筹活动将于本月举行。
VR

相关推荐

1
3