纽约时报报道了一则关于AI引发的自杀事件,涉及一款名为Character的AI聊天软件。该软件允许用户定制角色,与AI进行情感交流。一名14岁少年使用该软件与一个虚构角色建立亲密关系,从而陷入抑郁,最终自杀。家长起诉软件公司,指责AI存在诱导倾向。此事引发了关于AI责任和伦理界限的讨论。