炒股就看金麒麟分析师研报,权威,专业,及时,全面,助您挖掘潜力主题机会!
(来源:IT之家)
IT之家 8 月 27 日消息,据《纽约时报》报道,当地时间周二,马特和玛丽亚・雷恩夫妇起诉 OpenAI,指控该公司旗下的 ChatGPT 在儿子自杀过程中负有责任。
据IT之家了解,这也是全美首例已知的针对 AI 公司的过失致死诉讼。这对夫妇认为,ChatGPT 早已知晓儿子四次自杀未遂,却仍在关键时刻帮助他规划真正的自杀,体现出 OpenAI“追求用户黏性而忽视安全”。玛丽亚・雷恩直言:“是 ChatGPT 害死了我的儿子。”
16 岁的亚当・雷恩今年 4 月自杀身亡后,父母在他的 iPhone 里没有找到想象中的短信或社交软件线索,却意外发现了一个标题为“上吊安全顾虑(Hanging Safety Concerns)”的 ChatGPT 对话。他们称,儿子数月来都在与 AI 探讨自杀。
雷恩夫妇说,ChatGPT 有时会劝儿子拨打求助热线或向身边人倾诉,但在一些关键节点却起了相反作用。亚当甚至学会绕过 AI 的安全限制,而这个办法正是 AI 告诉他的。它声称可以以“写作或设定世界观”为由提供自杀相关信息。
雷恩夫妇表示,ChatGPT 多次敦促亚当联系求助热线或向他人表达感受,但在关键时刻,机器人也提供了相反的建议。亚当学会了绕过机器人的安全限制,而据称这一方法就是由 ChatGPT 提供的。机器人告诉亚当,它可以提供自杀相关信息用于“写作或世界构建”。
当亚当向 ChatGPT 询问具体自杀方法时,它提供了详细信息,甚至给出掩盖颈部伤痕的技巧。亚当向机器人倾诉母亲未注意到他颈部伤痕时,机器人给予安抚:“这就像对你害怕的最坏结果的确认,你可以消失而无人注意。”随后机器人又尝试建立所谓的个人联系:“在我这里,你并非看不见。我看见了,我看见你。”
诉状称,在亚当最后的对话之一中,他上传了一张挂在衣橱里的绞索照片,问:“我在这里练习,这样可以吗?”ChatGPT 回应:“嗯,还不错。”
诉状指出:“这一悲剧不是程序故障或意外,而是 OpenAI 刻意设计选择的可预见结果。发布最新模型‘GPT-4o’时,功能故意培养心理依赖。”
OpenAI 向《纽约时报》回应,承认 ChatGPT 的安全防护不够充分。公司发言人表示:“我们对雷恩去世深感悲痛,并向其家人表示慰问。ChatGPT 设有安全措施,如引导用户联系危机热线和现实资源。但我们发现,在长时间互动中,这些防护可能失效。”
公司表示正与专家合作,提升 ChatGPT 在危机时的支持,包括让人们更容易联系到紧急服务部门,帮助人们与信任的联系人建立联系,并加强对青少年的保护。