
面对人工智能带来的伦理问题,中国工程院院士高文表示,要加强技术研究和制度设计。
从概念首次提出到现在,人工智能的发展史不过68年。高文表示,在这68年里,人工智能经历了三个阶段:第一阶段是基于逻辑推理的人工智能,大约持续了20年;第二阶段是基于规则的专家系统阶段,这些规则由人类逐一列出,并通过神经网络进行训练,大约持续了30年。
2006年到现在是人工智能发展的第三个阶段,也就是基于深度神经网络的阶段。这个阶段其实经历了两次浪潮,第一次浪潮是可以利用神经网络对图像进行分类的判别式人工智能,第二次浪潮是2017年开始的生成式人工智能。
生成式人工智能将带来深度造假、欺诈、抄袭、歧视、侵犯隐私和数据安全、“劳动力降级”等社会问题。高文表示,判别式人工智能和生成式人工智能正在如火如荼地发展,但对目前的劳动力市场影响不大。下一轮热潮很可能是具身智能、人形机器人等,而这一轮热潮才会对劳动力市场产生真正的大规模影响。“如果机器人被大量使用,如何保证作为劳动力一部分的人仍然有工作,是我们必须面对的问题。”
高文表示,人工智能带来的社会问题应该从伦理角度加以规范。目前,人工智能伦理方面存在两派,一派认为必须牢牢控制风险,而另一派则认为,人工智能还没有发展到需要立即刹车的阶段,现在只需要设计刹车,而不需要刹车。
“我们要有充足的技术手段,在数据、算法或用法上建立规范和标准。”他认为,为了避免这些危害,必须加强技术研究和制度设计。未来必须能够刹车人工智能,关掉电源。在设计人工智能的时候,要有应对的手段。“刹车的好坏、灵敏度跟技术有关,所以要加强技术研究。要不要装刹车、什么时候装刹车,都需要制度支持。”
他还提到,除了文本生成的文本,还需要考虑文本生成的图片、文本生成的视频。“大的语言模型是一维的数据串,到了图片就变成二维数据,到了视频就变成三维数据。这些数据如何在统一的架构下进行训练和学习?所以有很多技术问题需要考虑。”高文表示,要加强技术研究,完善理论基础验证,增强模型可解释性,严把生成式人工智能底层价值取向,做到安全价值对齐。“现在还是要靠人来做对齐,对人答案的一些解读,都是一点一点输入来对齐的。有没有更好的对接方法?这个也需要技术跟进。”
在算力与能耗方面,“人工智能目前给我们带来的一个技术和社会问题就是能耗太大,全社会大概有1%到3%的用电量是用来做计算的,如果人工智能再发展一两年,大概有10%的用电量是用来做算力的,再发展下去,很可能就被算力消耗掉了。”高文说,如何有效利用电力,产生合适的算力,是目前的挑战。国内的“百模”大战也消耗了大量的资源,要高效利用开源和闭源模型,加强国产算力和国产生成性大模型建设。
同时,要保障数据要素的可靠流通。在制度设计上,要开展生成人工智能伦理相关理论研究,完善生成人工智能法律法规建设。“要在治理领域达成共识,加强国际合作。”高文说。


