

这项来自谷歌和斯坦福大学的研究对 1,052 名参与者进行了两个小时的采访,以创建“模拟代理”——人工智能的个性化复制品。这些采访用于训练模仿人类行为的生成人工智能模型。

为了验证人工智能复制品的准确性,每个参与者都完成了两轮性格测试、社会调查和逻辑游戏,然后两周后再次进行相同的测试。当人工智能“复制品”接受这些测试时,他们的答案在 85% 的情况下与真实参与者的答案相符。

研究人员认为,能够模拟人类行为的人工智能模型可能在多个研究领域都有用。例如,它可以帮助评估公共卫生政策的有效性,了解公众对产品发布的反应,甚至可以模拟对重大社会事件的反应,而这些事件由于成本、操作复杂性或道德问题而难以与真人一起研究。
研究人员在论文中提到:“模拟人类的态度和行为可以为研究人员提供测试各种干预措施和理论的实验平台。每个模拟个体都可以参与不同的社会、政治或信息环境。”他们补充说,这样的模拟还可以帮助试点新政策,探索因果关系和背景因素的相互作用,并加深我们对机构和网络如何影响人们的理解。

研究人员还意识到该技术可能会被滥用。人工智能和“深度造假”技术已经被不良行为者用来诈骗、冒充和操纵他人。模拟代理也可能被滥用。
然而,他们认为这项技术为我们提供了以前无法实现的研究人类行为的方法,使实验能够在高度受控的测试环境中进行,并避免了传统人体实验的伦理、后勤和人际问题。

IT之家附论文地址:点此前往


