实时光补偿算法是否是AR SDK的下一个竞争点


    在Google 、 Apple 和BAT等国际、国内大头,都在AR/AI领域掷出大手笔或深度注资的热潮远景下,光场算法作为涵盖三大产业中姿态、捕捉、编解码、压缩、分析、分发、显示等整套技术环节体系中最底层也最核心的技术,只有真正将基础打好,从核心抓起,才能赋能多元技术冲破壁垒,率先把握自主科研创新风口。
    所谓光场,是指整个三维空间内所有光线的集合。空间中每个点的光场都可以定义为5D函数,每条射线的方向均由5D全光函数发射,其波长和角度作为附加变量,每一个光场的建立都是无限的向量集合,每个方向都有一个影响点,长度与其辐射成正比,而人的2只眼睛在接受光线位置和方向不同时,会产生双目视差、移动视差、聚焦模糊和遮挡深浅等现象,只有将外部世界的完整光场信息实时、无损地复现,才能实时再现人眼所见的视界。
    
    由于光场的复杂性及复现场景的真实性挑战,光场一直被列为计算机深度算法及内容开发的主要开发功能之一,将自己定位为集成光场、图像识别、姿态分析、运动追踪等于一体全球化人工智能算法科研公司的太平洋未来科技,他们展示了自主研发的实时光补偿算法——AMreal Engine,这一套光场算法是否会是底层核心技术新的突破口?
    太平洋未来科技 AMreal Engine实时光补偿算法演示:
    
    实时判断光源,虚拟物体实时与真实环境光互动补偿
    从上述Demo中看到,这一实时光补偿算法直接在平板中操作进行,运行也相对顺畅,虚拟物体(花盆)光影及光强随光源变化实时发生互动补偿。
    市场上主流光场算法演示:
    虚拟物体仅根据实际光照发生亮度变化,不能判断光源及实时追踪互动
    
    为了有一个深度易懂的对比,不妨来看一下目前市场上主流的光场算法,在以上Demo演示中,运行速率均为乐观,但明显能看出虚拟物体(球)影子始终未发生变化,仅根据实际光照发生亮度变化,不能判断光源及实时追踪互动。
    据太平洋未来科技创始人兼CEO李建亿日前提及:“在所有风口热潮中,没有捷径,只有将根基打好,才能在创新中立足脚跟。公司从2016年初,就已经在国际视觉设计师Mark Ruff的指导下,通过80台单反相机收集光场环境与物体之间的关系,从而建立光场,自主研发实时光补偿算法AMreal Engine,不仅是为了核心底层深度算法有一个稳扎稳打的基底,更是为了行业软、硬件能有一个融合发展且低成本的突破。目前,此实时光补偿算法已经提供给相关合作伙伴进行技术评估、使用,SDK也即将上线。”
    AMreal Engine实时光补偿算法,从5D全光功能中,提取适当的2D贴片,通过单个图像合集来确定光照,将光的颜色、光的强弱及光的方向,在三维空间里完整投射呈现。此实时光场补偿算法不仅特别适用于移动单目、双目设备(如手机、平板及主流穿戴设备)及主流U3D渲染引擎;同时为开发者们解决了开发难度大、硬件匹配度高、生成速率慢等种种困难,提供从现实到虚拟再到现实的闭环沉浸空间,大大降低高质量光场内容的制作门槛。
    太平洋未来科技 AMreal Engine 实时光补偿算法原理
    目前,市面上的光场算法,均只能呈现虚拟光与虚拟光之间的关系,光场引擎亦没有办法实时判断主光源,无法让虚拟物体与真实环境融合,或者需要昂贵的硬件、感光器去来收集光场,不能满足人眼不同深度的对焦沉浸感。太平洋未来科技实时光补偿算法,在不需要昂贵成本的情况下,便能模拟实际光束融入现实空间中的情景,完整记录光场信息,在实时捕捉真实世界的完整光场信息的同时,进行不失真的虚拟构建,无需复杂的、多模组化的摄像头,亦能完成实时同步的光场效果。
    低硬件成本、高效、便捷的实时光补偿算法不仅驱动AR/AI产业底层技术革新,也将渗透到虚拟电商、影视制作、3D设计、工业监测、航空、教育、医疗、文旅、博览等各个领域。
    期待行业先行者,开辟稳扎稳打的“无人区”,为科技创新核心技术发展加速;期待太平洋未来科技实时光补偿算法SDK的开放。