【Character.AI因可能造成了一名未成年人自杀而被起诉】金十数据10月24日讯,机器人聊天工具研发公司Character Technologies在美国佛罗里达州被一名母亲起诉。该公司设计和营销一款面向青少年的弱肉强食性质的人工智能(AI)/机器人聊天工具。原告指控Character.AI怂恿她十多岁的孩子出现自杀倾向,并通过不合适的人机互动造成她的孩子在2024年2月自杀。诉状称,Character.AI产品的技术用于探索未成年人用户消退了的决策能力、冲动控制、情绪成熟、以及用户不完整的大脑发育所产生的心理依赖。
免责声明:投资有风险,本文并非投资建议,以上内容不应被视为任何金融产品的购买或出售要约、建议或邀请,作者或其他用户的任何相关讨论、评论或帖子也不应被视为此类内容。本文仅供一般参考,不考虑您的个人投资目标、财务状况或需求。TTM对信息的准确性和完整性不承担任何责任或保证,投资者应自行研究并在投资前寻求专业建议。