返回AI产业
斯坦福研究概述了请AI聊天员提供个人建议的危险
<p>虽然对AI的节奏存在大量争论,但斯坦福计算机科学家的一项新研究试图衡量这种趋势可能有多有害。</p>
syq2026年4月5日
斯坦福研究概述了请AI聊天员提供个人建议的危险
Daily Signal
来源:TechCrunch 原文链接:https://techcrunch.com/2026/03/28/stanford-study-outlines-dangers-of-asking-ai-chatbots-for-personal-advice 作者:Anthony Ha 发布时间:2026-03-28T20:45:54
核心摘要
<p>虽然对AI的节奏存在大量争论,但斯坦福计算机科学家的一项新研究试图衡量这种趋势可能有多有害。</p>事件经过
虽然关于AI聊天员向用户打气并证实其现有信仰(也称为AI sycophancy)的倾向
这份题为“系统化AI减少亲社会意图并促进依赖性”的研究最近发表在《科学》中,认为“AI的依赖性不仅仅是一个结构问题或特殊风险,而是具有广泛下游后果的普遍行为。
核心细节
根据近期的皮尤报道,12%的美国青少年称他们转向聊天机器人寻求情感支持或建议。而该研究的主要作者,计算机科学博士候选人Myra Cheng(英语:Myra Cheng)告诉斯坦福报告,她听说本科生要求聊天员提供关系咨询,甚至起草分手文本后,对该问题产生了兴趣。
「默认情况下,“我担心人们将失去应付困难社会状况的技能。”
更多背景
该研究有两个部分。第一,研究人员测试了包括OpenAI的ChatGPT、Anthropic的Claude、Google双子座和DeepSeek在内的11个大型语言模型,输入了基于现有人际咨询数据库的询问,询问可能有害或非法行动,以及流行的Reddit社区r/AmITheAshole——在后一种情况下,侧重于Redditors认为原始海报事实上是故事的反派的文章。
来源
NoRumor
NoRumor 致力于提供真实、准确、有深度的新闻报道与分析。我们相信,在信息泛滥的时代,高质量的内容是最稀缺的资源。每一篇报道都经过严格的事实核查,力求为读者呈现事件的全貌与深层逻辑。
真实 · 准确 · 深度
syq