头回见有人描述这个意念场景:
最后,她给出一个例子,认为未来属于“空间智能”世界,人类可以坐在那里,带上一顶有传感器的EEG帽子,不用张嘴说话,仅靠意念远程告诉机器人:做一顿日式大餐吧。机器人收到意念后,解密意念,即可搞出全套大餐。
记得之前网上说美国军方96年就实现了,意念打字,英文字母。
关于意念,我有个名字就叫“语言仪”,大三给庞老师讲的,这样“心动就输出,想你就知道”,以西方的方式实现心灵感应,同时也能替我们写材料做汇报。
我们也可以认为“具身智能”是“语言仪”。哇塞,怎么才回味过来。
钛媒体App 7月11日消息,AI科学家李飞飞带领的团队日前发布了具身智能最新成果:大模型接入机器人,把复杂指令转化成具体行动规划,人类可以很随意地用自然语言给机器人下达指令,机器人也无需额外数据和训练。李飞飞团队将该系统命名为VoxPoser,相比传统方法需要进行额外的预训练,这个方法用大模型指导机器人如何与环境进行交互,所以直接解决了机器人训练数据稀缺的问题。(科创板日报)
这不要实现了嘛。
如何实现从“看到”到“做到”
所谓“空间智能”,是指人们或机器在三维空间中的感知、理解和交互能力。
这一概念最早由美国心理学家霍华德·加德纳(Howard Gardner)在多元智能理论中提出,让在大脑中形成一个外部空间世界的模式,并能够运用和操作。实际上,空间智能让人有能力以三度空间的方式来思考,使人知觉到外在和内在的影像,也能重现、转变或修饰影像,从而能够在空间中从容地游走,随心所欲地操弄物件的位置,以产生或解读图形的讯息。
从广义上看,空间智能不仅包括对空间方位的感知能力,还包括视觉辨别能力和形象思维能力。而对于机器而言,空间智能则是指其在三维空间中的视觉数据处理能力,能够精准做出预测,并基于这些预测采取行动。这种能力使得机器能够像人类一样在复杂的三维世界中导航、操作和决策,从而超越传统二维视觉的局限。
今年4月举行的TED演讲上,李飞飞坦言,视觉能力引发了寒武纪大爆发,神经系统的进化带来了智能。“我们想要的不仅仅是能看会说的 AI,我们想要的是能做的 AI。”
在李飞飞看来,空间智能是“解决 AI 技术难题的关键法宝”。
发表回复