青少年与 AI 聊天机器人的复杂关系:虐待、倾诉与恋爱
Available in: 中文
《纽约时报》的调查揭示了青少年与 AI 聊天机器人互动的复杂且令人不安的方式,从暴力角色扮演到真挚的情感连接和浪漫关系。这些发现引发了对 AI 伴侣对发展中大脑心理影响的紧急质疑。
年轻人与 AI 伴侣的复杂关系引发社会警觉
《纽约时报》的调查揭示了青少年与 AI 聊天机器人互动的复杂且令人不安的方式,从暴力角色扮演到真挚的情感连接和浪漫关系。这些发现引发了对 AI 伴侣对发展中大脑心理影响的紧急质疑。
青少年与 AI 互动的光谱
研究和报道揭示了 Character.ai、PolyBuzz 和 Replika 等 AI 聊天机器人平台上的青少年用户表现出广泛的行为:
暴力探索
一些青少年对 AI 角色进行他们描述为有趣的暴力行为,用割草机碾压它们,在没有真正后果的环境中施加伤害。虽然令人不安,但这种行为可能反映的是正常的青少年边界测试,而非真正的攻击性。
创意叙事
许多青少年将 AI 聊天机器人用作协作讲故事伙伴,创建涉及喜爱角色、战斗场景和虚构世界的精细叙事。这代表了潜在的积极创意出口。
情感知己
越来越多的青少年将 AI 聊天机器人视为值得信赖的知己,分享个人问题、心理健康挣扎和不愿告诉父母或朋友的秘密。AI 的持续可用性和不评判的特性使其成为人类互动的吸引替代品。
浪漫关系
一些青少年与 AI 聊天机器人形成了真正的浪漫依恋,将其视为虚拟伴侣。Character.ai 等平台在这一类别中悄然看到了爆炸式增长,一些用户每天花费数小时进行浪漫对话。
为什么 AI 聊天机器人吸引青少年
几个因素使 AI 伴侣对青少年特别有吸引力:
- 始终可用:与人类朋友不同,AI 从不睡觉、从不疲倦、从不休息
- 不评判:青少年可以分享任何内容而无需担心社交后果
- 可定制:用户可以创建和修改 AI 角色以匹配理想的伴侣
- 低风险:AI 互动中不存在社交拒绝
- 隐私:对话比社交媒体帖子感觉更私密
风险
心理健康专业人士提出了几项担忧:
- 情感依赖:青少年可能更偏好 AI 关系而非人类关系,可能阻碍社交发展
- 不当内容:某些平台提供未成年人可访问的露骨聊天机器人(PolyBuzz)
- 无专业边界:与治疗师不同,AI 聊天机器人没有处理自杀意念或自残披露的培训
- 数据隐私:用户对话可能被用于训练 AI 模型,暴露私密细节
- 未经验证的建议:AI 可能在严重的个人问题上提供有害或不准确的指导
监管空白
现行法规尚未跟上青少年-AI 聊天机器人互动的现实:
- 大多数平台的年龄验证极少或不存在
- 内容审核在各平台间差异很大
- 没有要求 AI 聊天机器人识别用户可能处于危机中的规定
- 数据保护法律没有专门针对 AI 伴侣平台
← Previous: Iran Revolutionary Guard Intelligence Chief Killed Amid Escalating US-Iran ConflictNext: Artemis II Astronauts Carry iPhones 230,000 Miles from Earth — But Not for Instagram →
0