他认为,AI作为信息处理工具,能做的事情比大家想象的要少,在每一项工作中都发挥着作用,但还不是颠覆性的作用,AI还会长期停留在“工具”阶段,当AI真正意义上从“处理”变成“理解”的时候,才是下一轮的机遇。为此,我们必须回归基础研究,探索AI的机制、计算机制的本质。

曾毅,联合国人工智能高级别咨询机构专家、北京人工智能安全与治理实验室主任、中国科学院自动化研究所研究员。
数据和算法造成偏见
人工智能技术日新月异,人类面临的治理挑战越来越大。对于技术研究者来说,科学突破是最容易的,比科学突破更难的是思考科学可能给社会带来的负面影响,而比所有这些更难的是解决科学突破带来的潜在风险。

“如果处理得当,人工智能可以弥合数字鸿沟,但如果处理不当,人工智能将导致更大的智力鸿沟。”曾毅说,数字化已经造成了公平性的差异,人工智能缩短了与人类智力的接口。获取信息和知识的便利性将使数字鸿沟和智力鸿沟之间产生更大的代沟,影响一代甚至几代人。如何避免智力鸿沟,绝不是人工智能和科研人员、技术开发者以及不熟悉人工智能的人能够完全解决的问题。智力鸿沟是一个技术问题和社会问题。
“很多人认为人工智能技术是中立的,最重要的是人如何使用这个技术。但人工智能不是,人工智能的出发点是数据和算法。”曾毅说,数据和算法都可能导致人工智能存在偏见。数据来源于社会,社会中的数据是人的行为记录。数据的统计意义是有偏见的。从人类数据中学习的人工智能不仅学习了人类的偏见,还会放大偏见。“比如你让AI推荐职业,对于一个女性,20岁,推荐的是护士或者服务员。有没有人根据这些条件推荐CEO?没有。对于一个男性,35岁,受过良好教育,它推荐CEO或者CTO。这就是统计意义的偏见。”
现代控制论的奠基人诺伯特·维纳1960年在《科学》杂志上撰文称:“我们最好非常确定,我们为机器编程做的事情,是和我们的初衷一致的。”人工智能的数据中有善有恶,人类规定人工智能在某些场景下不会表现出邪恶,但曾毅表示,这并不意味着人工智能不会这么做。“人类不可能把所有的情况都罗列出来。”他说,“隐藏在数据中的人类局限性,是人类自己很少反思的问题,但现在这些问题已经被机器学会了,而我们还没有理清机器如何应用数据的潜在风险。”
助手还是对手?
人工智能是帮手还是对手?曾毅认为,人类需要把人工智能塑造成帮手。“如果我们不负责任地发展人工智能,任其自行其是,甚至追求短期利益,它就有可能变成对手。”
人工智能的出现,常常让人担心AI会不会抢走人类的饭碗。曾毅说,《论语》中的“君子不器”,就是君子不像工具,作用只局限于某一方面。“未来可能会出现新的工作形态,也会逐渐被社会认可,因为当越来越多的工作可以被人工智能取代时,人类不可替代的部分就会越来越清晰,迫使人类回归本源,回归本该做的事。”

他认为,人工智能技术的发展和长期应用,会倒逼人类思考人类的意义、人类应该做什么。“当互联网上有更大规模的人工智能写入的数据和知识,这些数据和知识被喂入人工智能,训练人工智能时,人工智能的能力就会越来越弱。所以我觉得人工智能会取代一些工作,就像蒸汽机时代、计算机时代一样。技术给人类带来短期的焦虑,可能让更多人回到本该在的地方。”
曾毅认为,人工智能的潜在风险应通过探索社会与技术的深度融合来解决。就像自动驾驶出租车“胡萝卜跑”一样,社会各方面还没有做好充分的准备来迎接这项技术。“我们永远不能依赖技术来解决潜在的风险,也不应该把希望仅仅寄托在技术研究人员身上。”
“很多技术研发者,特别是创业型技术研发者会跟你说,现在不做就晚了,或者说你不发展,机会就会被别人抢走。其实我不能说生成式人工智能像前三轮人工智能发展那样是一个非常明显的泡沫,但是它作为一个信息处理工具,能做的事情比大家想象的要少,这是现阶段的事情,它在每一项工作中都会发挥一定的作用,但还不至于起到颠覆性的作用。”
曾毅表示,人工智能看似是一种智能信息处理工具,长期停留在“工具”阶段。没有自我的人工智能,没有“理解”的机会。至少,下一轮机会是让人工智能从“处理”转变为真正意义上的“理解”。为此,我们必须回归基础研究,探索人工智能的机制和计算机机制的本质,从大数据、高算力向小数据、小任务、高智能、低能耗发展。“这才是未来我们真正应该发展的方向,要让人工智能从数据驱动转变为机制驱动。”


