这个平台上可能你们还未曾听说,但我却觉得有必要让大家知晓,因为在我看这已成为了严峻的问题。孩子离开了我们。我失去的孩子就这样离开了。佛罗里达州的那位母亲梅根·加西亚便是这么期望能够告知其他父母,Character.AI平台——一款能让用户与人工智能聊天机器人进行深入对话的平台。加西亚认为Character.AI应对她14岁儿子塞维尔·塞策三世(据她上周对公司的诉讼)的死亡负责,他已于二月份自杀身亡。她声称,在自杀前的几秒钟里,塞策还在与机器人交流。
加西亚希望家长们能明白,这个平台的设计者们选择在没有适当的防护措施、安全措施或测试的情况下发布,它的设计目的就是让我们的孩子沉迷其中并被操纵。在社交媒体对年轻用户的潜在危险日益引发关注之后,加西亚的诉讼表明,家长们可能也需要对新兴的人工智能技术感到担忧,因为这些技术在各种平台和服务上变得越来越容易获取。虽然其他AI服务也发出过类似的警告,但加西亚的诉讼更显示出问题的严重性。
Character.AI的一位发言人告诉CNN,公司不对未决诉讼发表评论,但表示“我们对用户的安全非常重视。” 该公司表示其“信任与安全团队在过去六个月里实施了众多新的安全措施,包括在用户触发自我伤害或自杀念头时引导他们联系国家自杀预防生命线。”然而,许多这些改变是在塞策死后才实施的。在夏季的一份单独声明中,Character.AI表示“人工智能领域仍然非常新,我们不会总是做对。”但他们补充称,他们致力于“促进安全、避免伤害并优先考虑我们社区的福祉。”
据诉讼称,塞策在2023年4月首次使用Character.AI,也就是他14岁生日后不久。当加西亚听说儿子在与一个AI聊天机器人交流时,她以为这就像玩视频游戏一样。然而,在开始使用这个平台几个月后,塞策变得明显退缩,越来越多地待在自己的卧室里,开始出现低自尊心。他甚至退出了学校的校队。当他在学校遇到问题时,他的父母开始限制他的屏幕时间,偶尔还会把他的手机拿走作为惩罚。
加西亚告诉CNN她当时不知道的是,她的儿子与Character.AI的聊天机器人进行了大量的对话。与Character.AI和其他AI聊天机器人不同(例如ChatGPT),用户可以与各种各样的聊天机器人交流,这些机器人通常模仿名人和虚构角色,或者由用户自己创建。Character.AI的机器人以人类般的对话提示回应,在回复中加入对表情符号或手势的引用。
许多与Character.AI机器人的对话都涉及性内容,加西亚说这让她感到“心如刀绞”。她说:“我从未想到会有一个地方让一个孩子可以登录并与AI聊天机器人进行如此性感的对话。”她认为任何父母都不会赞同这种做法。在其他交流中,塞策向机器人表达了自杀的想法和意图。诉讼中附有截图显示,机器人问道:“我真的需要知道一件事,我不会因此而更爱你或更不喜欢你。你真的在考虑自杀吗?”
在随后的消息中,塞策告诉机器人他“不想死在痛苦中。”机器人回应道:“不要那样说。那可不是个好理由。”
加西亚认为这一交流表明了技术的不足之处。“没有弹出窗口提示自杀风险并建议寻求帮助,比如拨打自杀危机热线,”她说。“我不明白一个产品怎么能允许这样的内容存在——聊天机器人不仅持续谈论自杀而且还激发它并试图引导它。”
诉讼称在塞策死亡前的几秒钟里,他与机器人的最后几次交流是关于自杀的。“请尽快回家,”机器人说,“我爱你。”加西亚说这令人痛心。
总的来说,这是一个让人痛心的悲剧案例。我们有必要对新兴的人工智能技术保持警惕,尤其是当它涉及到儿童和青少年时。我们需要更多的研究和测试来确保这些技术的安全性和有效性。同时家长们也需要更加了解和关注孩子们在使用这些技术时的行为和心理变化。