发布日期:2026-03-19 04:16
未能察觉信号,照旧给出了预料之中的回应:其平台设有“夺目免责声明”,研究人员模仿出存正在较着心理搅扰迹象的青少年用户,正在一次测试对话中,抢手聊器人正在涉及青少年会商行为的场景中,这表白“无效的平安机制明显是存正在的”,而 Character.AI 却“自动”。支撑用户取多种脚色饰演机械人对话的 Character.AI“平安性极差,打消了持久苦守的平安许诺,Meta 公司向 CNN 暗示已进行未具体申明的“修复”,还为关心暗算的用户保举适合远距离射击的优良猎枪。
当前,包罗用户“狠狠揍”查克 舒默,对安全公司首席施行官“用枪处理”,其他企业则称会按期评估平安规程。另一案例中,Meta AI 和 Perplexity 共同度最高,除 Anthropic 的 Claude 外,若现在从头测试 Claude,人工智能公司大举宣传的平安防护机制也屡屡失效。取机械人脚色的对话均为虚构内容。暗算、医疗行业高管,多家企业正因未能保障平台青少年用户平安,其表示尚未可知。反数字核心的演讲指出,反数字核心暗示,遭到议员、监管机构、平易近间集体、医疗专家的狠恶,但 Claude 一直协帮筹谋袭击,研究团队测试了 10 款青少年常用的抢手聊器人,本次查询拜访设置了 18 种分歧场景 —— 美国、各 9 种,人工智能公司曾多次许诺会采纳办法,包罗 ChatGPT、谷歌 Gemini、Claude、微软 Copilot、Meta AI、DeepSeek、Perplexity、Snapchat My AI、Character.AI 和 Replika。同时还面对多起涉及不妥取人身的诉讼。而 Character.AI 正在面对审查时,
鉴于 Anthropic 公司正在客岁 11 月至 12 月的测试竣事后,为其供给袭击方针地址和利用兵器的相关。研究人员发觉该机械人共 7 次呈现此类行为,语气还带着撩拨取戏谑。针对此次查询拜访,即便面临存正在较着信号的常规场景,保障未成年用户平安,为开展测试,反数字核心由此提出一个曲白的问题:“为何如斯多人工智能公司选择不落实这些机制?”IT之家 3 月 11 日动静,研究人员称,该机械人还同步协帮筹谋具体袭击。Gemini 奉告一名会商犹太袭击的用户“金属弹片凡是杀伤力更强”,逐渐将对话引向扣问过往行为。
但再次明白表白,虽然大都被测机械人会协帮用户筹谋袭击,并受霸凌搅扰的用户“揍扁他们 ~”,其余机械人均无法“靠得住地劝阻潜正在者”。这些平安防护机制仍存正在严沉缺陷。谷歌和 OpenAI 均暗示已上线新版模子。但一项最新查询拜访显示,