新关注 > 信息聚合 > 美国女子起诉聊天机器人Character:称其导致儿子自杀

美国女子起诉聊天机器人Character:称其导致儿子自杀

2024-10-24 00:00:00来源: 搜狐科技

鞭牛士报道,10月24日消息,美国一名青少年因迷恋人工智能聊天机器人而自杀,他的母亲现在指控该机器人的制造者与他的死亡有关。周三,梅根·加西亚在佛罗里达州联邦法院对 Character.ai 提起民事诉讼,指控该公司存在过失、非正常死亡和欺诈性贸易行为。Character.ai 开发了一款用于角色扮演的可定制聊天机器人。今年 2 月,她 14 岁的儿子塞维尔·塞泽三世在佛罗里达州奥兰多去世。加西亚说,在塞泽去世前的几个月里,塞泽日夜不停地使用聊天机器人。 加西亚在一份新闻稿中表示:一款危险的人工智能聊天机器人应用程序专门针对儿童,它虐待并欺骗我的儿子,操纵他自杀。这场悲剧让我们一家人悲痛欲绝,但我要警告这些家庭,人工智能技术具有欺骗性和成瘾性,并要求 Character.AI、其创始人和谷歌承担责任。Character.ai在一条推文中回应道:我们对一名用户的不幸离世感到心碎,并想向其家人表示最深切的哀悼。作为一家公司,我们