“我希望有一天能够看到智能的物种,这一点在我有生之年可能发生也或许不可能发生,但是这个智能的物种将来自于我们当中,我们会建造出来。”11月3日,在2019腾讯科学WE大会上,致力于研发具有自主意识机器人的哥伦比亚大学创意机器实验室主任Hod Lipson表示,机器人不仅可以自己学会做一件事,而且是在对自己的模拟中学会的,这两个要素是我们将来走向机器人自我意识的重要要素,机器人如果能够模拟人类和其他机器人,也就会启动机器人之间的社会行为。
Hod Lipson表示,近期几乎所有机器人学的成果,都是通过模拟进行学习的。建造机器人的过程先是把它们设计,然后对它们编程,进行测试,都是利用模拟,让它们在模拟中学习。所有的这些模拟都是由工程师创造出来的,需要先知道模拟什么,有时候也不知道模拟哪些事情重要,模拟哪些事情不重要。
“问题在于,机器人能否获得自我模拟的能力,这似乎就是拼图的最后一块了。”Hod Lipson说。
他介绍,团队曾经做过实验,一个是有自我模型的机器人,一个是没有自我模型的机器人,同样的数据,能够对自我建模的机器学得快,而没有自我建模的机器人要慢1000多倍。
他认为这个差距就是自我意识的革命。系统越复杂,自我建模和机器具有自我意识的优势也就越大。
今年3月20日,Hod Lipson担任领头人之一的研究团队研发的新型“粒子机器人”登上了Nature杂志封面。“粒子机器人”是能够自我建模的仿生群体,由很多不同的细胞来组成,一个简单的“粒子机器人”是由六七个不同的粒子组成,它可以到处走,其中某一个坏了整个机器还可以继续工作。
“这个世界上任何自动的系统,包括无人机、无人驾驶汽车、智能城市等,它们有自我意识、能够自我照顾、能从毁坏中恢复、能够不断地改进。这些自动系统越来越多,而人类也将负担不起继续维护这些系统,负担不起对它们进行编程。这个任务太大了,我们必须把这个任务分给机器人,使它们能够看到自己、能够思考、调整适应和修复。”Hod Lipson说。
机器人具备了自我意识,如何去应对可能出现的伦理问题?
Hod Lipson在接受包括《中国经营报》在内的媒体记者采访时表示,技术本身既可以被用来做好事,也可以被用来做坏事,关键在于人类想怎么把它用于好的事情,而不是坏的事情。确保人工智能完全用于好的事情并不容易,因为这个技术非常容易使用,不需要投入很多钱就能够用上。
将来是让人工智能去监督人工智能,还是采取什么别的办法,目前他还没有完全想清楚。但是总的来说最终要靠人类的伦理,确保这些技术仍然用于好的事情。
他认为,目前唯一能做的就是不断地谈论这样的事情,不能关上门搞开发,要保持百分之百的开放。可能进行大量的交流还不能确保这个技术一定是用于好的事情,但是至少通过这个讨论,人们可以了解到这种技术的危险性何在,而不是在未来某一天突然被它吓坏了。
(编辑:张靖超校对:颜京宁)