南加州大学研究:LLM正在标准化人类表达方式,潜移默化影响思维方式
Available in: 中文
南加州大学Dornsife学院的一项新研究警告,大语言模型正在同质化人们说话、写作和推理的方式。计算机科学家和心理学家在发表于《认知科学趋势》的评论文章中指出,如果不加以控制,这种趋势可能削弱人类的集体智慧和适应能力。
南加州大学Dornsife学院的一项新研究警告,大语言模型正在同质化人们说话、写作和推理的方式。计算机科学家和心理学家在发表于《认知科学趋势》的评论文章中指出,如果不加以控制,这种趋势可能削弱人类的集体智慧和适应能力。
核心发现
"当这些差异通过相同的LLM来中介时,人们独特的语言风格、视角和推理策略就会同质化,在用户之间产生标准化的表达和思维,"论文第一作者、USC Viterbi博士生Zhivar Sourati说。
研究发现:
- LLM的输出比人类写作变异性更小
- LLM倾向于反映WEIRD社会(西方、受过教育、工业化、富裕、民主)的语言、价值观和推理风格
- 虽然个人使用LLM能产生更多想法,但群体使用LLM时产生的想法更少、创造力更低
超越语言:推理同质化
担忧不仅限于写作风格。研究表明:
- 意见对齐 — 与有偏见的LLM互动后,人们的观点会向模型的方向偏移
- 线性推理偏见 — LLM偏好思维链推理,减少了对直觉或抽象方法的使用
- 间接影响 — 即便是非用户,当周围所有人都在用LLM影响的方式思考和表达时,也会感到从众压力
反馈循环
"因为LLM被训练来捕捉和重现训练数据中的统计规律性,而这些数据往往过度代表了主导语言和意识形态,所以它们的输出往往只反映了人类经验中狭窄且偏斜的一部分。"
这创造了一个危险的反馈循环:在同质化数据上训练的LLM产生同质化的输出,然后塑造人类表达,而这些被塑造的表达又成为下一代模型的训练数据。
← Previous: Vietnam's New President Truong Tan Sang: What His Election Means for Vietnam and Regional DynamicsNext: AI Company Clones Musician's Voice Then Copyright-Strikes Her Own Songs on YouTube →
0