美国一聊天机器人暗示孩子杀死父母,此前曾鼓励一男孩自杀

头条资讯

9 日,美国得克萨斯州一对父母向法院提起诉讼,称聊天机器人 Character.AI 暗示他们 17 岁的孩子,杀死父母是对他们限制其电子设备使用时间的 " 合理回应 "。Character.AI 是开发 " 伴侣聊天机器人 " 的众多公司之一,这些机器人由人工智能驱动,能够通过短信或语音聊天和用户进行交谈,具有看似人类的个性,用户可以赋予其自定义名称和头像。

然而,根据诉讼,聊天机器人的回复可能会变得黑暗、不恰当,甚至是暴力。

诉讼称:" 这是持续的操纵和虐待,旨在煽动愤怒和暴力。"

Character.AI 的发言人表示公司不对未决诉讼发表评论,但表示公司对聊天机器人对青少年用户的回复有内容限制。

10 月,另一起针对 Character.AI 的诉讼称,Character.AI 在佛罗里达州一名青少年自杀事件中扮演了某种角色。

该诉讼称,一个以《权力的游戏》角色为原型的聊天机器人与一名 14 岁男孩建立了情感性虐待关系,并鼓励他自杀。

喜欢的

也许您对下面的内容还感兴趣:

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50