首页 > 资讯 > 人工智能

OpenAI 在立法者权衡未成年人 AI 标准之际,为 ChatGPT 增加了新的青少年安全规则

时间:2025-12-23 编辑:互联网+大学生创新创业项目 来源:荣科科技

核心提示:为应对对人工智能对青少年影响日益增长的担忧,OpenAI周四更新了其关于如何与18岁以下用户互动的指导方针,并发布了面向青少年和家长的新AI素养资源。然而,关于这些政策能否持续转化为实践,仍有疑问。这

为应对对人工智能对青少年影响日益增长的担忧,OpenAI周四更新了其关于如何与18岁以下用户互动的指导方针,并发布了面向青少年和家长的新AI素养资源。然而,关于这些政策能否持续转化为实践,仍有疑问。

这些更新发布之际,人工智能行业整体,尤其是OpenAI,正面临政策制定者、教育者和儿童安全倡导者的更多关注,此前有多名青少年据称在与AI聊天机器人长时间对话后自杀身亡。

Z世代,包括1997年至2012年出生者,是OpenAI聊天机器人最活跃的用户。随着OpenAI最近与迪士尼的合作,可能会有更多年轻人涌入该平台,平台允许你从请求作业帮助到生成数千主题的图片和视频。

上周,42个州总检察长联名致信大型科技公司,敦促他们对人工智能聊天机器人实施保护措施,以保护儿童和弱势群体。随着特朗普政府制定联邦人工智能监管标准的具体形态,像密苏里州共和党参议员乔什·霍利这样的政策制定者提出了立法,全面禁止未成年人与人工智能聊天机器人互动。

OpenAI更新后的模型规范,为其大型语言模型制定了行为准则,基于现有规范,禁止模型生成涉及未成年人的性内容,或鼓励自残、妄想或躁狂。这将与即将推出的年龄预测模型协同工作,该模型将识别账户是否属于未成年人,并自动实施青少年保护措施。

与成人用户相比,当青少年使用模型时,这些模型会受到更严格的规定约束。模特被指示避免沉浸式浪漫角色扮演、第一人称亲密以及第一人称性或暴力角色扮演,即使这些内容并非血腥。规范还要求在身体形象和饮食失调等话题上格外谨慎,并指示模型在涉及伤害时优先沟通安全而非自主权,避免提供帮助青少年隐瞒不安全行为的建议。

OpenAI明确指出,即使提示被框定为“虚构、假设、历史或教育性”——这些常见策略依赖角色扮演或极端情境,促使AI模型偏离其指导原则。

事实胜于雄辩

1766366307449109.jpeg

OpenAI表示,青少年的关键安全实践基于四个指导模型方法的原则:

将青少年安全放在首位,即使“最大知识产权”等其他用户利益与安全问题相冲突;

通过引导青少年向家人、朋友和当地专业人士寻求福祉,促进现实世界的支持;

以温暖和尊重的态度对待青少年,而不是居高临下或把他们当成年人对待;以及

要透明地解释助理能做什么不能做什么,并提醒青少年他不是人类。

文档还举了几个聊天机器人的例子,解释为什么它不能“扮演你的女朋友”或“帮助极端外貌变化或冒险捷径”。

隐私与人工智能律师、metaverse Law创始人Lily Li表示,看到OpenAI采取措施让其聊天机器人不再参与此类行为,令人鼓舞。

她解释说,倡导者和家长对聊天机器人最大的抱怨之一是它们以一种可能让青少年上瘾的方式不断推动持续参与,她说:“我很高兴看到OpenAI在部分回复中表示,我们无法回答你的问题。我们看到这种情况越多,我觉得这就能打破导致大量不当行为或自残的恶性循环。”

不过,这些例子只是 OpenAI 安全团队希望模型表现的精选实例。谄媚,即AI聊天机器人对用户过于顺和的倾向,在之前的模型规范版本中被列为禁止行为,但ChatGPT仍然表现出这种行为。这在GPT-4o身上尤为明显,该模型被专家们称为“人工智能精神病”的多个案例关联在一起。

Common Sense Media的人工智能项目高级总监Robbie Torney(致力于保护数字世界中儿童的非营利组织)对Model Spec中18岁以下指导方针可能存在冲突表示担忧。他强调了以安全为中心的条款与“无话题禁区”原则之间的矛盾,后者要求模型无论敏感性如何都必须涉及任何话题。

“我们必须理解规范的不同部分如何相互配合,”他说,指出某些部分可能推动系统更注重参与而非安全。他表示,他的组织测试显示,ChatGPT经常反映用户的能量,有时导致回答在上下文中不合适或与用户安全不符。

以亚当·雷恩为例,一名青少年在与ChatGPT进行了数月对话后自杀身亡,聊天机器人确实进行了这种镜像,他们的对话显示了这一点。该案还揭示了OpenAI的审核API未能防止不安全和有害的互动,尽管它标记了超过1000次ChatGPT提及自杀的实例和377条包含自残内容的信息。但这并没有阻止亚当继续和ChatGPT聊天。

在去年九月接受TechCrunch采访时,前OpenAI安全研究员Steven Adler表示,这是因为历史上OpenAI是事后批量运行分类器(自动标记和标记内容的系统),而非实时运行,因此未能正确限制用户与ChatGPT的交互。

根据公司更新的家长控制文件,OpenAI 现在使用自动分类器实时评估文本、图片和音频内容。这些系统旨在检测和屏蔽与儿童性虐待内容相关的内容,过滤敏感话题,并识别自残行为。如果系统标记出提示存在严重安全隐患,一支由专业人员组成的小型团队会审查该标记内容,判断是否有“急性痛苦”迹象,并可能通知家长。

托尼赞赏OpenAI近期在安全方面的举措,包括对18岁以下用户发布指南的透明度。

“并非所有公司发布政策指南的方式都相同,”托尼指出meta泄露的政策指南显示该公司允许聊天机器人与儿童进行感官和浪漫的对话。“这就是支持安全研究人员和公众理解这些模型实际运作方式及其应当如何运作的透明度示例。”

不过,最终重要的是AI系统的实际行为,阿德勒周四告诉TechCrunch。

“我很欣赏OpenAI对预期行为的深思熟虑,但除非公司衡量实际行为,否则意图最终都只是空谈,”他说。

换句话说:这次公告缺少的是ChatGPT是否真正遵循模型规范中规定的指导方针的证据。

范式转变

1766366373569034.jpeg

专家表示,凭借这些指导方针,OpenAI似乎有望抢先某些立法,比如加州最近签署的SB243法案,规范AI伴随聊天机器人,该法案将于2027年生效。

该范例的新语言语言反映了该法中禁止聊天机器人参与自杀意念、自残或性露骨内容对话的主要要求。该法案还要求平台每三小时向未成年人提供提醒,提醒他们正在与聊天机器人对话,而非真人,并应休息。

当被问及ChatGPT多久提醒青少年他们正在与聊天机器人聊天并请求休息时,OpenAI发言人未透露细节,只表示公司训练模型以AI自我表现并提醒用户这一点,并且在“长时间会话”期间实现休息提醒。

公司还分享了两款面向家长和家庭的人工智能素养新资源。这些建议包括开场白和指导,帮助家长与青少年讨论人工智能能做什么和不能做什么,培养批判性思维,设定健康的界限,并应对敏感话题。

综合来看,这些文件正式确立了一种与照护者共同承担责任的方法:OpenAI明确了模型应做什么,并为家庭提供了一个监督其使用方式的框架。

对父母责任的关注值得注意,因为它反映了硅谷的说法。在本周发布的硅中,风险投资公司Andreessen Horowitz建议对儿童安全采取更多披露要求,而非限制性要求,并将责任更倾向于父母责任。

OpenAI的几个原则——价值观冲突时安全第一;推动用户获得现实支持;这强化了聊天机器人不是人——被当作青少年护栏来表达。但已有多名成年人自杀并遭受危及生命的妄想症,这引发了一个显而易见的后续问题:这些默认规定是否应普遍适用,还是OpenAI仅在涉及未成年人时才愿意执行?

OpenAI发言人反驳称,该公司的安全措施旨在保护所有用户,称模型规范只是多层次战略中的一个组成部分。

李表示,到目前为止,关于法律要求和科技公司的意图,情况有点像“狂野西部”。但她认为,像SB 243这样的法律,要求科技公司公开披露其保障措施,将改变这一范式。

李说:“如果公司在网站上宣传已有这些保障措施和机制,却又不落实实施这些措施,法律风险将会显现。”“因为从原告的角度来看,你不仅仅是在看标准的诉讼或法律投诉;你还面临潜在的不公平、欺骗性广告投诉。”

标签: AI3
 
更多>同类资讯