OpenAI 于本周四发布了一份针对青少年使用人工智能的安全标准蓝图,旨在引导公众和立法者关注青少年在使用 AI 时的安全问题。
这份蓝图首次与 Axios 共享,正值多个州正在考虑制定 AI 安全法案之际,特别是美国参议院也在推进一项禁止未成年人使用聊天机器人的法案。与此同时,OpenAI 面临一宗涉及未成年人自杀的高调诉讼,这引发了公众对其平台在青少年用户安全防护方面的广泛关注。
OpenAI 在推动 AI 技术应用于学校的同时,认为设定相关安全框架尤为重要。该蓝图提出,青少年应能安全、可信地接触 AI,并防范潜在的伤害。具体来说,OpenAI 建议 ChatGPT 应根据用户年龄的不同,做出差异化的回应,以便更好地保护青少年。例如,15岁的青少年和成年人在使用 AI 时的互动应有所不同。
在蓝图中,OpenAI 列出了五项针对青少年保护的具体建议。这些建议包括:识别平台上的青少年用户,并以适合其年龄的方式进行处理;通过相关政策,禁止 AI 系统展示自杀、自残及敏感或暴力内容,避免鼓励危险行为或不切实际的身体标准;在无法确认用户年龄的情况下,默认将其视为未满18岁进行处理;为家庭提供家长控制工具,以便家长可以管理青少年账户的使用情况;以及拓展基于最新研究成果的防护功能,保护青少年与 AI 的互动。
不过,年龄验证技术仍然面临挑战,许多未成年人可能会轻易绕过现有规则。为了提高青少年用户的安全性,OpenAI 正在探索多种措施,并希望能推动更多家庭和学校共同参与 AI 的规范及监督工作。