谷歌机器人吃了语言大模型后 会自学和思考了
发布时间:2022-08-18 09:46:40 所属栏目:数码 来源:互联网
导读:谷歌让机器人和大型语言模型学了本事,会自学了!以后不用等命令了,想干啥,只需吩咐一句。 「上得厅堂,下得厨房」,这句对理想型贤内助的赞许,以后很可能要对谷歌的机器人说了。 自带大型语言模型,会自学的机器人,见过吗?不会做?可以学! 现在不会没
谷歌让机器人和大型语言模型学了本事,会自学了!以后不用等命令了,想干啥,只需吩咐一句。 「上得厅堂,下得厨房」,这句对理想型贤内助的赞许,以后很可能要对谷歌的机器人说了。 自带大型语言模型,会自学的机器人,见过吗?不会做?可以学! 现在不会没关系,过一会儿学完了就会了。 比起波士顿动力炫酷无比的上刀山,下火海,翻山越岭,如履平地的「铁面金刚」,这次谷歌搞的「会学习的机器人」更像是身边贴心的小助手。 我说什么,你做什么,是一般的机器人执行指令的套路。谷歌这次的新研究,让机器人不只会按指令,自己也能动手做。 这是谷歌首次将语言大模型和机器人相结合,教机器人做人类一样的事情。 用谷歌论文的题目说就是:「Do as I can,not as I say」。 大概是这个意思:「你已经是个成熟的机器人了,我做的,你也能做,不会的可以学,不熟的可以练!」 谷歌为这个机器人取名PaLM-SayCan。 在《华盛顿邮报》的报道中,记者就见到了研究人员让机器人用塑料玩具原料作汉堡。 看起来这个机械臂知道在放肉之后、放生菜之前,要加点番茄酱,但目前这位厨子认为,「加番茄酱」是把整个装番茄酱的瓶子放在汉堡里。 虽然目前这个机器人大厨还不合格,不过谷歌相信,在大语言模型的训练下,学会做汉堡只是早晚的事。 这个机器人还能识别七喜和可口可乐的罐子,打开抽屉并找到一袋薯片。 凭借PaLM的抽象能力,它甚至可以理解黄色、绿色和蓝色的碗可以分别比喻为沙漠、丛林和海洋。 和以前的机器人不同,过去也有机器人做汉堡、做炒面、做披萨,但实际上完成的是单一动作的明确指令的组合,比如「右臂左移三格」、「翻个面」等。 现在谷歌的目的是,让机器人能听懂并执行「来给我做个汉堡」、「我饿了,去给我买个面包」、「出去陪我打个球」这种命令。 就跟和人说话一样。 比如,当谷歌人工智能研究员对PaLM-SayCan机器人说:「我的饮料洒了,你能帮忙吗?」 它在谷歌办公大楼的厨房里用轮子滑行,用数码相机的视觉发现柜台上的海绵,用电动臂抓住它,并把它带回来。 谷歌的布莱恩·伊克特(Brian Ichter)说:「这从根本上说是一种不同的模式」。他是最近发布的一篇描述这类机器人新进展的论文的作者之一。 目前,机器人已经不算稀罕物了。数以百万计的机器人在世界各地的工厂里工作,但它们遵循特定的指令,通常只专注于一两项任务。 而要打造一个能够完成一系列任务,还能边干边学的机器人,则要复杂得多。多年来,大大小小的科技公司都在努力建造这种「通用型机器人」。 近几年大火的大语言模型让谷歌找到了「通用型机器人」的研发灵感。 大型语言模型利用互联网上的大量文本,训练AI软件,以猜测某些问题或评论之后可能出现的反应类型。 从BERT到GPT-3,再到后来的MT-NLP,随着参数数量的突飞猛进,这些模型已经非常善于预测正确的反应,以至于与一个模型打交道往往感觉像是在与一个知识渊博的人对话。 掌握这么多知识,光陪人聊个天岂不是可惜?能对话,就能干活,从聊天机器人,到助手机器人,谷歌的研究思路可以说算是「水到渠成」了。 这个PaLM-SayCan,厉害在哪? 这次,Google AI与谷歌母公司Alphabet的登月计划X团队推出的Everyday Robot项目合作,提出了一种方法。 即通过预训练在大型语言模型(LLM)中提取知识,让机器人遵循高级文本指令完成物理任务。 (编辑:阜新站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |