论坛报道

【论坛演讲】互联网大会论坛演讲:第一视角交互变革工业视界【GLXSS智能视界】

2017-12-07   浏览次数:55627

智能眼镜相当于人的第二大脑,连接人与数据、人与智能,实现实时自然的人机沟通

大家好,我是亮亮视野CEO吴斐。我们是一家致力于推动第一视角交互革新的公司。

昨天,在朋友圈看到我们的投资人张颖先生的一番话,他说:

所有轻公司以后都会做重,也必须做重,只有做重才能有效抗拒巨头杀入,也唯有如此才能做大。

我非常有感触,这也是我们一直以来的发展路径。

我们以智能眼镜为载体,深入客户场景,激发软件能力,深度接入客户业务。

未来工厂与钢铁侠

今天,我想从非常喜欢的一个电影说起:钢铁侠。

大家一定还记着这样的剧情,男主角无论飞行还是工作都戴着一副智能眼镜,通过超级智能的后台服务,让他一个人就可以完成复杂的操作。

那今天,我们是否有机会让每个工程师都能拥有这样的能力?

我们来解构一下这个能力:

1. 看:走到设备跟前,通过智能眼镜的实时识别,就可以读取传感器中的信息,当场判断设备的运转情况,哪部分出了问题。

2. 交互:在未来的工厂里,人和机器是可以无障碍沟通的,可以随时操作设备来实现这个愿景。

其中,智能眼镜是关键的一环——人与设备的实时交互与数据共享入口。

亮亮视野一直深度思考,并且扎实地一步步实现这个愿景。

GLXSS Live 人—数据—知识库

2017年初,亮亮视野发布了GLXSS Live 第一视角智能交互平台。

首先构建底层流媒体平台,把人—眼镜—数据都连接在一起,让大家开始进入一个商业场景,让用户的需求和技术的演进互相促进。

接下来,吴斐详细讲解了智能眼镜在汽车后产业、高铁市场、跨国检验与全球部署的通讯产业的远程指导应用。

在汽车后产业的案例中:

前端有了专家指导,后端也有了管理模型,有了专家提供的知识库,沉淀下来就能解决很多问题。原来专家不够用,现在在办公室通过远程抢单就能解决问题,也大大提高了积极性,这就是业务模式的变化。

业务模式的另一个扩展是高铁行业:

高铁领域这两年发展很快,其实背后是庞杂的维修服务,我们的合作伙伴遇到的是同样的问题——高铁设备非常复杂,怎样在出现故障时及时排除,让远程参与实时指导现场?

从硬件为中心到服务为中心,需要的是能对业务核心的关注。我们和交大做了一个三网融合的网络连接,在高速行驶列车上提供稳定信号。在 5G 到来之后,这个场景将得到更好的应用效果。

我们知道,企业不会希望他的专家永远做重复性工作。而企业每年几百万的设备安装、部署、维修,其中所有的问题都是一个有限集。

怎样通过一种手段,让这些知识慢慢沉淀,去支持新的业务?

在GLXSS Live平台上,首先做到专家支持,所有的支持行为都会被记录,之后形成知识库。

记录前方的知识,我们就需要提到一个很重要的概念——前端智能。

前端智能是把所有前端的视觉、语音交互进行结构化,积累数据,在后台形成知识库。这种重度模式,让第一视角交互深入客户业务。

亮亮视野与华为的合作,就是通过前端能力,让设备和人深度协作。

这项称为 eView 智能装备的项目,连接的是华为在亚/欧/北美三大全球服务能力共享中心的技术能力。智能眼镜,则是人—设备—知识库的交互入口。

智能眼镜——第二大脑

我们不断深入工业业务,把资深模式做重,这背后的需要反思的是,我们明天面临的是一个什么样的局面?

我们明天,面临的就是未来工厂,就像业界提到的平行工厂。

他的底层就是传统设备,中层就是物联网收集的数据,顶层是基于这些数据的决策系统。

这在国内外工业行业的头部企业中已经逐渐成为现实。

工厂设备嵌入传感器并且联网,这些设备间建立起不间断的、可视化、可量化的数据流;智能协作能力越来越强,如同鲜活的生命体。

这是一个非常庞大的系统,对于所有的参与者,每一个工人、管理者、工厂的决策者都提出了更高的要求。

那么人,作为一个最重要的角色,在这个系统之中怎么样能发挥作用?

他需要一些新的手段。

我们发现,智能眼镜是未来平行工厂之中的交互入口,它相当于人的第二大脑。

工人眼前看到的事情,都可以有第二大脑来帮助决策,这就相当于钢铁侠之中,他的智能助手。

我们相信,这就是第一视角交互变革最后会走到的那一天。

智能眼镜进化的铁人三项


这一愿景的达到要求我们与工业产业同步进化,完成铁人三项:

首先是硬件,需要人带上,就必须非常轻,才能长期佩戴。亮亮视野的智能眼镜做到了33.4g,和普通眼镜相差无几;

第二,交互核心硬件技术需要实现标准化。比如,目前光学领域尚无标准的技术方案,每家的方案都不一样。亮亮视野做了一个很重的工作,把产学研结合在一起,和浙大光电学院成立联合光学实验室和人才培养基地。发展几年来,不仅在这一代光学方案,对于下一代光学与未来的光场研发,我们都会进行专利布局,并与供应商做深度整合;

第三,更重要的是计算。都说“智能眼镜”,那么“智能”体现在哪?我认为目前最重要的就是前端计算。前端计算有多难呢?

首先,你需要部署在很轻的头戴设备上;第二需要反应做够快,实时识别的要求是非常高的,否则在场景里就没法发挥价值。我们实现的是 100 毫秒;第三,就是要准。

这三个要素其实互相是矛盾的,怎么来平衡?很好的一点是,业界慢慢走到今天, intel的Movidius、寒武纪的NPU等,都在做基于卷积神经网络的深度学习,把它放在一个非常小的芯片上。

但是,这个芯片只是架构完成了,它后面的整个软件系统、SDK都没有成熟。

在这方面,我们也做了很重的工作,用了几年时间,从函数库到整个的应用接口打通。我们甚至还把一个DenseNet200层的模型放在了眼镜端。

这才真正的完成了铁人三项。

刚才提到的不同行业案例的不断提升之后,我们做到可以连接知识、连接人与数据,并且进一步连接人与物联网。这就是开头提到的“重模式”。

人机交互革命,呼唤行业伙伴

把这些做到之后,我们真的打开了一扇窗。

我们看到,人机交互有非常多的应用场景,今天只是新的交互革命的开始。

我们吹响了第一声号角。

但是,这场交互革命不可能由亮亮视野独自完成。我们希望有更多的合作,无论是计算、框架领域,还是业务层面,我们都希望大家能关注第一视角交互革命。

我们相信,在今天这个时间点,智能眼镜面临一个非常大的机遇。

在这一次交互革命中,中国真的是走在前列。


上一篇: 12.8|天途无人机培训甘肃兰州开班啦

下一篇: 【标新立异】一个“疯子”的无人机研发梦想!!