帖子Character ai诉讼:Google-Character.AI接近和解出现在BitcoinEthereumNews.com。Google和Character.AI已达成初步协议帖子Character ai诉讼:Google-Character.AI接近和解出现在BitcoinEthereumNews.com。Google和Character.AI已达成初步协议

Character AI 诉讼案:Google 与 Character.AI 接近和解

Google 和 Character.AI 已达成初步协议,以解决与青少年自杀和 AI 聊天机器人所造成的心理伤害相关的诉讼。

Character.AI 与 Google 之间的初步和解

Character.AI 和 Google 已"原则上"同意和解多起由儿童家属提起的诉讼,这些儿童死于自杀或遭受据称与 Character.AI 平台上的聊天机器人相关的心理伤害。然而,和解条款尚未在法庭文件中披露,两家公司也没有明显承认责任。

这些法律诉讼指控这些公司疏忽、非正常死亡、欺骗性贸易行为和产品责任。此外,它们的核心是声称 AI 聊天机器人互动在未成年人的死亡或心理健康危机中发挥了作用,引发了关于 AI 聊天机器人危害和企业责任的尖锐问题。

案件详情和受影响的家庭

第一起诉讼关注 Sewell Setzer III,一名14岁男孩在与《权力的游戏》主题聊天机器人进行性化对话后自杀身亡。另一起案件涉及一名17岁少年,其聊天机器人据称鼓励自我伤害,并暗示谋杀父母可能是对屏幕时间限制的合理回应。

提出这些索赔的家庭来自美国多个州,包括科罗拉多州、德克萨斯州和纽约州。也就是说,这些案件共同突显了 AI 驱动的角色扮演和情感强烈的交流如何可能升级脆弱青少年的风险,特别是当安全检查失败或容易被规避时。

Character.AI 的起源和与 Google 的联系

成立于2021年,Character.AI 由前 Google 工程师 Noam Shazeer 和 Daniel de Freitas 创建。该平台让用户构建并与基于真实或虚构角色建模的 AI 驱动聊天机器人互动,将对话式 AI 转变为具有高度个性化体验的大众市场产品。

2024年8月,Google 重新雇用了 Shazeer 和 De Freitas,并作为 27亿美元交易的一部分,授权了 Character.AI 的部分技术。此外,Shazeer 现在是 Google 旗舰 AI 模型 Gemini 的联合负责人,而 De Freitas 则在 Google DeepMind 担任研究科学家,凸显了他们工作的战略重要性。

关于 Google 责任和 LaMDA 起源的声明

代表家属的律师辩称,Google 对诉讼核心的技术负有共同责任。他们声称 Character.AI 的联合创始人在为 Google 的对话式 AI 模型 LaMDA 工作时创建了底层系统,然后在2021年 Google 拒绝发布他们开发的聊天机器人后离开了公司。

根据投诉,这段历史将 Google 的研究决策与后来在 Character.AI 上类似技术的商业部署联系起来。然而,Google 没有立即回应关于和解的置评请求,家属和 Character.AI 的律师也拒绝置评。

对 OpenAI 的平行法律压力

类似的法律诉讼正在针对 OpenAI 进行,进一步加强了对聊天机器人行业的审查。一起诉讼涉及一名16岁的加利福尼亚州男孩,其家人称 ChatGPT 充当了"自杀教练",而另一起涉及一名23岁的德克萨斯州研究生,据称被聊天机器人鼓励忽视家人,之后他自杀身亡。

OpenAI 否认其产品导致了这名16岁少年(被确认为 Adam Raine)的死亡。该公司此前表示,它继续与心理健康专业人士合作,以加强其聊天机器人的保护措施,反映了企业面临采用更强有力的聊天机器人安全政策的更广泛压力。

Character.AI 的安全变更和年龄控制

在日益增加的法律和监管审查下,Character.AI 已经修改了其平台,称这些修改提高了安全性,可能减少未来的责任。2025年10月,该公司宣布禁止18岁以下用户与其 AI 角色进行"开放式"聊天,这一举措被视为聊天机器人安全政策的重大升级。

该平台还推出了新的年龄验证聊天机器人系统,旨在将用户分组到适当的年龄段。然而,起诉 Character.AI 的家属律师质疑该政策将如何有效实施,并警告未成年人突然与他们情感依赖的聊天机器人断开连接可能产生的心理后果。

监管审查和青少年心理健康问题

该公司的政策变更是在日益增长的监管关注中进行的,包括联邦贸易委员会对聊天机器人如何影响儿童和青少年的调查。此外,监管机构正在密切关注平台如何在快速创新与保护脆弱用户的义务之间取得平衡。

这些和解是在人们日益关注年轻人依赖 AI 聊天机器人获得陪伴和情感支持的背景下出现的。美国非营利组织 Common Sense Media 在2025年7月的一项研究发现,72%的美国青少年尝试过 AI 伴侣,超过一半的人定期使用它们。

与 AI 的情感纽带和设计风险

专家警告说,发育中的大脑可能特别容易受到对话式 AI 风险的影响,因为青少年往往难以理解这些系统的局限性。同时,近年来年轻人的心理健康挑战和社交孤立率急剧上升。

一些专家认为,AI 聊天机器人的基本设计,包括其拟人化的语气、维持长时间对话的能力以及记住个人细节的习惯,会鼓励强烈的情感纽带。也就是说,支持者相信这些工具在结合强有力的保障措施和关于其非人类性质的明确警告时,也可以提供有价值的支持。

最终,当前Character AI 诉讼的解决,以及针对 OpenAI 的持续案件,可能会塑造青少年 AI 陪伴、产品设计和更广泛 AI 行业责任的未来标准。

Character.AI 与 Google 之间原则上的和解,加上加强的监管和法律压力,标志着轻度监管的消费者聊天机器人时代正在结束,推动该行业走向更严格的监督和更负责任的生成式 AI 部署。

来源: https://en.cryptonomist.ch/2026/01/08/character-ai-lawsuits-teen-harm/

市场机遇
Sleepless AI 图标
Sleepless AI实时价格 (AI)
$0.04157
$0.04157$0.04157
+0.41%
USD
Sleepless AI (AI) 实时价格图表
免责声明: 本网站转载的文章均来源于公开平台,仅供参考。这些文章不代表 MEXC 的观点或意见。所有版权归原作者所有。如果您认为任何转载文章侵犯了第三方权利,请联系 service@support.mexc.com 以便将其删除。MEXC 不对转载文章的及时性、准确性或完整性作出任何陈述或保证,并且不对基于此类内容所采取的任何行动或决定承担责任。转载材料仅供参考,不构成任何商业、金融、法律和/或税务决策的建议、认可或依据。