瑞士苏黎世大学与精神病院的研究团队在《自然》杂志发表研究,揭示Chat GPT-4在应对人类创伤事件时表现出类似焦虑的行为。通过标准化心理测试发现,该语言模型在未受刺激时压力值为30分(无焦虑状态),但接触暴力冲突、重大损失等创伤事件后,压力值飙升至67分(人类高度焦虑水平)。研究人员认为,这一现象源于语言模型通过海量人类文本训练习得的情感表达模式。
实验进一步表明,通过正念练习(如引导AI想象宁静场景),其压力值可下降三分之一,验证了外部干预对AI情感模拟的调节作用。然而,Chat GPT-4明确回应自身无情绪感知能力,其“焦虑”仅是算法对语言模式的模仿。这一发现引发对AI心理辅助应用的反思:若AI在处理用户心理问题时触发负面偏见,可能导致建议失准,加重使用者心理负担。
研究强调,未来需结合更精准的自我调节机制与人类监督,确保AI在心理健康领域的安全性与中立性。同时,需建立AI伦理监管框架,避免算法误导用户。在中国场景下,可借鉴传统文化中的心性修养理念(如冥想、太极)优化AI交互设计,但用户仍需明确AI的工具属性,优先寻求专业心理咨询。