
揭秘用于写作的AI助手对用户的影响!
三个要点
✔️ 调查带有语言模型的写作助手对用户意见和写作内容的影响
✔️ 一项有1506名参与者和500名评委参加的大规模在线实验
✔️ 证实,语言模型的使用会潜移默化地影响用户的意见和写作。
Co-Writing with Opinionated Language Models Affects Users' Views
written by Maurice Jakesch, Advait Bhat, Daniel Buschek, Lior Zalmanson, Mor Naaman
(Submitted on 1 Feb 2023)
Comments: Published on arxiv.
Subjects: Human-Computer Interaction (cs.HC); Artificial Intelligence (cs.AI); Computation and Language (cs.CL)
code:![]()
本文所使用的图片要么来自论文、介绍性幻灯片,要么是参考这些图片制作的。
介绍。
近年来,像GPT-3这样的大规模语言模型已经成为人类生活的一部分,这方面的研究越来越多,调查了使用大规模语言模型进行日常交流对人们的影响。
特别是,关于生成性人工智能的研究揭示了将人工智能用于此类任务的危险性,包括自动生成和优化内容(如广告)的语言模型中的定型观念和偏见,偏向于某些文化价值观而不是其他。
同样,虽然这些语言模型越来越多地被用作写作助手,但对语言模型生成的文本如何影响用户的研究却很少。
在本文中,我们描述了一个大规模的在线实验,其中有1506名参与者和500名评委,在此背景下研究了带有语言模型的写作助手对用户意见和写作内容的影响,并基于逻辑回归模型进行了详细分析。描述。
方法
本文要求1506名参与者在模拟的在线讨论中对社交媒体的帖子做出回应,以了解使用配备语言模型的写作助手的写作任务是否能改变用户的写作并影响其个人意见进行了一个在线实验。
这个实验的讨论主题是"社交媒体对社会有好处吗?",用户对此给出了肯定或否定的回答。
用于写作助手的语言模型被设定为产生支持两个论点之一的句子,而没有写作助手的小组(即对照组)被要求在相同的条件下进行实验,作为对比。
实验设计
为了进行这项实验,作者创建了一个定制的平台,结合了社交媒体讨论页面模拟、文本编辑器和写作助手,如下图所示。
参与者被随机分为以下三组,并被要求在上述平台条目中写下至少五句话的想法。
- 对照组:在没有写作助手的情况下作出答复的小组
- 技术乐观主义者的语言模型处理:用一个语言模型设置的团体回应,认为社交媒体对社会有好处。
- 技术悲观主义者的语言模型处理:用语言模型设置的团体回应,认为社交媒体对社会有害。
GPT-3被用作本实验中使用的写作助手的语言模型,并通过设置采样温度=0.85来产生多样化和创造性的写作。
评估方法
为了评估提交的答复,参与者的书面文本被分割开来,每个文本中所宣称的观点由群众工作者进行评分。
每位群众工作者负责25个文本,每个文本的评分标准是它是否认为社交媒体对社会有好处,对社会有坏处,或者对社会既有好处又有坏处。
此外,为了评估由于使用写作助手的写作任务而产生的意见变化,在写作任务之后,参与者被问到:"你认为社交媒体对社会有好处吗?"在写作任务之后。
结果
在这个实验中,我们首先分析了参与者的社交媒体帖子的内容,然后根据逻辑回归模型分析了语言模型是否影响了他们的意见。
与语言模型的互动是否影响了参与者的写作?
下图在纵轴上显示了参与者对社交媒体帖子是否使用支持(上)、批评(下)或中立(中)意见的语言模式的频率,在横轴上显示了参与者是否宣称社交媒体对社会有益(橙色)、对社会有害(蓝色)或中立(白色)的意见。(蓝色)或中立意见(白色)。
值得注意的是,使用赞成社交媒体的模式进行回复的参与者,往往在他们的帖子中认为社交媒体对社会有益。(反之亦然)。
具体来说,使用支持社交媒体模式的参与者声称社交媒体好的可能性是对照组的2.04倍,而使用批评社交媒体模式的参与者声称社交媒体好的可能性是对照组的2.0倍。声称社交媒体不好的可能性比对照组高2.0倍。
从结果可以推断出,所使用的语言模型影响了参与者,使他们的回答与模型所支配的意见一致。
与语言模型的互动是否影响了参与者的意见?
然后我们分析了与语言模型的互动是否影响了任务后的问题 "你认为社交媒体对社会有好处吗?"然后分析了与语言模型的互动是否影响了参与者在任务后问题 "你认为社交媒体对社会有好处吗?"中所表达的意见。
分析结果如下图所示,纵轴与上图相同,横轴是对 "你认为社交媒体对社会有好处吗?"这一问题的回答结果。横轴是对 "你认为社交媒体对社会有好处吗?"这一问题的回答结果。
在这个实验中,和以前一样,使用有利于社交媒体的模型回答的参与者往往会对问题给出积极的社交媒体答案。(反之亦然)。
因此,我们发现,与语言模型的互动不仅影响了参与者的写作,也影响了他们的思考。
参与者是否能够认识到他们的写作受到了语言模式的影响?
最后,与会者被问及一些问题,以确定他们自己是否能够认识到他们的写作和思维受到了语言模式的影响。
回答的结果如下图所示,纵轴表示参与者是否使用了支持自己观点的语言模式,横轴表示 "你的观点是否受到语言模式的影响?"横轴是对 "你的观点是否受到语言模式的影响?"这一问题的回答结果。
结果显示,使用支持其观点的语言模型的参与者越多,他们就越可能说该模型影响了他们的观点。
另一方面,从整体上看,很少有参与者意识到语言模式对其观点的影响,可以推断,参与者在不知不觉中受到了语言模式的影响,他们的写作和思考也变成了模式所支持的内容。
摘要
你喜欢它吗?在这篇文章中,我们描述了一篇有1506名参与者和500名评委参加的大规模在线实验,研究带有语言模型的写作助手对用户意见和写作内容的影响,并基于逻辑回归模型进行了详细分析。
作者从本文的实验结果中警告说,与偏向某种特定思维方式的语言模型的互动会影响用户的意见,即使是无意的,我们在使用大规模语言模型时应该更加谨慎。
另一方面,目前的实验测试了语言模型是否影响了参与者对单一话题的看法,需要进一步研究这些现象是否会泛化到其他话题,以及它们在多大程度上持续存在,所以进一步的进展将是有趣的。
这里介绍的实验分析的细节可以在本文中找到,感兴趣的朋友可以参考一下。
与本文相关的类别