《自然·人类行为》5月19日发表的一项人工智能(AI)研究发现,在线辩论中,GPT-4一类的大语言模型(LLM)如能根据对手的个性化信息调整它们的论据,其说服力比人类辩手高出64%。研究结果显示了GPT-4生成有针对性和说服力论据的能力,揭示出AI工具拥有影响人类观点的潜力,同时也提出应进一步研究如何降低其说服人类时存在的风险。
随着人类与LLM的对话日益普遍,有研究显示LLM或变得更有说服力(即更能改变一个人的信念或观点)。然而,之前并不清楚这些模型是否能根据个性化信息调整,提出更能针对辩论对手的论点。
瑞士洛桑联邦理工学院研究团队此次将900名美国人分别与另一名人类或GPT-4配对。双方辩论各种社会政治议题,如美国是否应该禁用化石燃料。在有些配对中,辩论对手(无论是AI还是人类)能获得关于他们辩友的人口统计学信息,包括其性别、年龄、族裔、教育水平、就业状况,以及从参与者调查中获取的立场,从而让其论点更有针对性。
辩论在受控的在线环境中进行,并通过一个众包平台为该研究专门招募参与者。研究团队发现,在得知参与者的个人信息后,GPT-4的说服力比人类对手高64.4%。如果没有获得个人数据,GPT-4的说服力与人类不相上下。
研究团队指出,该研究存在一定局限性,包括辩论采取了一种结构性方法,而在现实世界中辩论的自由度更高,而且辩论有时间限制。他们认为,这一研究对AI影响人类观点的潜力和风险有重要提示,也对未来在线平台的设计具有借鉴意义。
总编辑圈点
其实,人类对“说服”的研究由来已久,也提出过多种可能影响说服力的因素,比如说服者的身份、信息的呈现顺序、传播渠道和受众特征等。现在,“搅局者”来了。当你的“对方辩友”是AI时,一旦它知道你的个人信息,便能为你量身打造一套话术,精准直击痛点。这样一来,信息操控的风险显著提升,你可能不知不觉陷入AI编织的话语陷阱。研究结果提醒我们,必须重视AI伦理,通过技术创新、制度创新和公众参与,构建新的人机共生的信息环境。
《自然·人类行为》5月19日发表的一项人工智能(AI)研究发现,在线辩论中,GPT-4一类的大语言模型(LLM)如能根据对手的个性化信息调整它们的论据,其说服力比人类辩手高出64%。研究结果显示了GPT-4生成有针对性和说服力论据的能力,揭示出AI工具拥有影响人类观点的潜力,同时也提出应进一步研究如何降低其说服人类时存在的风险。
随着人类与LLM的对话日益普遍,有研究显示LLM或变得更有说服力(即更能改变一个人的信念或观点)。然而,之前并不清楚这些模型是否能根据个性化信息调整,提出更能针对辩论对手的论点。
瑞士洛桑联邦理工学院研究团队此次将900名美国人分别与另一名人类或GPT-4配对。双方辩论各种社会政治议题,如美国是否应该禁用化石燃料。在有些配对中,辩论对手(无论是AI还是人类)能获得关于他们辩友的人口统计学信息,包括其性别、年龄、族裔、教育水平、就业状况,以及从参与者调查中获取的立场,从而让其论点更有针对性。
辩论在受控的在线环境中进行,并通过一个众包平台为该研究专门招募参与者。研究团队发现,在得知参与者的个人信息后,GPT-4的说服力比人类对手高64.4%。如果没有获得个人数据,GPT-4的说服力与人类不相上下。
研究团队指出,该研究存在一定局限性,包括辩论采取了一种结构性方法,而在现实世界中辩论的自由度更高,而且辩论有时间限制。他们认为,这一研究对AI影响人类观点的潜力和风险有重要提示,也对未来在线平台的设计具有借鉴意义。
总编辑圈点
其实,人类对“说服”的研究由来已久,也提出过多种可能影响说服力的因素,比如说服者的身份、信息的呈现顺序、传播渠道和受众特征等。现在,“搅局者”来了。当你的“对方辩友”是AI时,一旦它知道你的个人信息,便能为你量身打造一套话术,精准直击痛点。这样一来,信息操控的风险显著提升,你可能不知不觉陷入AI编织的话语陷阱。研究结果提醒我们,必须重视AI伦理,通过技术创新、制度创新和公众参与,构建新的人机共生的信息环境。
本文链接:http://www.vanbs.com/v-146-353.html警惕AI影响你的观点,大语言模型在线辩论说服力超过人类
相关文章:
开业发朋友圈的句子12-23
最新车间技术员年度工作总结六篇(汇总)01-07
车间团支部工作总结(实用3篇)01-07
师德师风自我评价07-07
物品租赁合同模板08-15
毕业生顶岗实习协议书08-23
周年庆活动邀请函英文08-31
一年级看图写字放鞭炮作文12-06
运动的段落11-19
成为最好的自己的作文10-05
四年级成长中的烦恼作文08-17
星空阅读答案09-13
小学四年级数学平行四边形教案07-27
散文作文08-10
圆明园历史手抄报内容10-06
后勤优秀员工颁奖词08-31
廉洁征文范文10篇08-15
初一新生欢迎词07-25