“如各位所见,为了让八戒更有实感,我们利用组合式的微型投影设备和车载hud(抬头显示),模拟出了它的具体形象。
不管你是处在车内还是车外,它都可以用这样的形式面对面的与用户交流。
“哇”现场传来一阵惊呼。
虽然投影出的影像有些模糊,无法做到像电影里那种3d虚拟影像。
这样的车载人机交互他们还是第一次见到。
比起喇叭里传来的单调机械音,这种以投影形象存在,面对面的交流方式的确更有实感,也更贴合人类交流习惯。
同时,也有不少人立刻就想到了这种独特交互模式在高阶自动驾驶下的应用场景。
比如…即便在车主不在场的情况下,八戒也可以主动与旁人完成简单的交流…
想象一下,在你抽不开身的时候,你的爱车可以按照你的命令去取快递。
又或者,去小吃摊上帮你买一份煎饼果子?
以他们对八戒的实测,这种简单场景的逻辑理解和沟通对方完全没有问题。
新车还没到手呢,“八戒迷”和各自媒体博主们已经开始幻想用它进行各种整活了…
“八戒,看来大家对你的各项新功能很好奇,接下来就由你来为大家解答吧。”
好的,请交给我!
虚拟形象转向观众,然后做了个很人性化的摊手动作。
关于我做了什么样的技术升级,很遗憾,恐怕在座的各位,哪怕是专业人士也不容易理解。
这是一套由我的开发者首创的,截然不同于目前世界ai体系的新型神经网络结构和算法模型。
我的底层设计者将该系统命名为'adultagi(成人版通用人工智能)',旨在感知和理解现实世界的复杂性,赋予我在真实世界场景中做出复杂决策的能力…
嗯…虽然听不明白但是好像很厉害的样子。
一通云里雾里的专业术语把众人绕晕之后,八戒继续介绍道。
除了智能上的升级优化,我的另一项重要更新功能,是被赋予了‘端到端人工智能’的能力。
虚拟形象突然化为光点四散开来,然后组合成了一个个组成汽车的零件和模块…。
以这辆‘相思豆’为例,包括车载功能模块,三电控制系统,以及核心的智能驾驶系统…
从机器视觉到驱动决策都将由我的神经网络,进行深度融合控制。
换句话说,这辆车就是我的身体,而我则是它的大脑,可以根据用户的指令完成所有的车辆操控动作,
同时也能够进行自定义功能设置。
不仅如此,通过特定的新型web3.0互联网架构,我还可以经由用户授权,连接到现实世界的主流电子设备上。
比如智能穿戴设备、手机、电脑…甚至是一台扫地机器人。
只要用户有需要,只需要下载一个终端,我就可以通过联网出现在任何载有音频播放和接收装置的设备中,用语音模式帮助用户远程操控车辆…
下面的余总听的愣神。
什么‘端到端人工智能’…这不就是他们正打算搞的“万物互联”嘛…
只不过对方用来连接万物的不是应用生态和通讯协议…
而是一个人工智能?!
人类创造了璀璨的文明,开发出了各种丰富的电子、机械产品。
然而随着技术发展,越是高级的电子机械产品,功能就越是复杂。
一台普通的燃油车,就有数十个按键,指示灯和上百种功能。
而这台‘相思豆’的相关智能化功能,更是高达300多种,这对人类而言是一项庞大的学习工程。
在我看来,人类的天赋是创造,而不是学习和记忆。
但这恰恰是我的强项。
我想,这也是我,作为ai被创造出来的初衷。
人类最喜欢的沟通方式是语言和文字,电子机械的交流方式是0和1。
而我则同时精通这两门语言。
所以,比起‘车载智能音箱’这种称呼,我更喜欢将现在的自己称为‘辅助型智能ai’。
我愿意成为人类的伙伴,为人类和电子机械之间搭起一座连通万物的桥梁…
请:m.yetianlian.com