神之手?:OpenAI如何决定GPT-4o能生成什么图像?
你是否好奇为什么全网都在用GPT-4o生成吉卜力风格的插画,而某些特定类型的图像却无法生成?为什么有时你的创意请求会被拒绝,而有时又能顺利通过?谁在决定这些边界,又基于什么原则?
在某种意义上,制定AI模型政策如同执掌”神之手” - 如果将AI想象成具有强大能力的存在,那么能控制AI能做什么、不能做什么的决策者,就像是在行使一种特殊的权力。尤其当我们考虑到越来越多人在依赖这些AI完成工作和生活任务时,这种权力的意义更加深远。
OpenAI的模型行为负责人Jang最近分享了一篇内部视角的博客,揭示了这些问题的答案。
彩蛋:我在23年整理的一篇OpenAI闭门会分享内容中有一张我最早看到“模型即产品”的图就是来自这位小姐姐,查了一下应该是韩裔,简历相当优秀。她在斯坦福学的是CS,但是曾经在推文上提到过,之前学过的课程中对现在的工作帮助最大的是哲学课,是不是有点“神之手”的感觉了)
从吉卜力风格热潮看AI图像生成的政策挑战
GPT-4o发布后,社交媒体上立即掀起了吉卜力风格创作的热潮,这引发了一个关键问题:关于知名艺术风格模仿的版权和伦理边界在哪里?这正是AI政策制定的核心挑战之一。
Jang在博客中指出,OpenAI正从敏感领域的”一刀切”拒绝转向更精准的方法,这种转变基于一个核心理念:拥抱谦卑,承认认知局限,并保持政策灵活性以便学习调整。正如她总结的:
“我们正在从敏感领域的全面拒绝转向更精确的方法,专注于防止现实世界的伤害。目标是拥抱谦卑:认识到我们不知道的有多少,并做好调整的准备随着我们的学习。”
创作者最关心的问题:什么能生成,什么不能?
能做的:更多创意自由
根据Jang的博客,GPT-4o在以下方面提供了更大的创作自由:
- 风格模仿:如吉卜力风格的艺术创作(这解释了为什么这类创作在发布后立即流行);
- 个性化编辑:现在可以请求”让这个人的眼睛看起来更亚洲化”或”让这个人更胖”等编辑,这些曾被误判为”冒犯性”请求;
- 文化和教育内容:即使涉及敏感符号,如果出于真正的教育或文化目的,也有可能获准生成;
不能做的:保持底线
尽管政策变得更加开放,OpenAI仍然维持了关键底线:
- 对未成年人的强保护:Jang明确表示,”每当政策决定涉及年轻用户时,我们决定采取更安全的做法:为18岁以下的人在研究和产品中选择更强的保护和更严格的保障措施;”
- 公众人物保护:创建了选择退出名单,尊重个人对自己形象的控制权;
- 仇恨符号的有害使用:尽管在教育语境中可能允许,但有害使用仍被严格禁止;
政策背后的思考:三大原则转变
1. 信任用户创造力胜过内部假设
“AI实验室员工不应成为判断人们可以或不可以创造什么的仲裁者。”
Jang承认,每次发布后团队都会被用户创新的使用场景所震撼 - 有些应用在事后看来非常明显,但由于团队视角的局限性而未能预见。
这说明OpenAI正努力减少对创意的过度限制,让更多创新可能性得以实现。
2. 不以最坏情况否定日常价值
原文中提出了一个发人深省的问题:”当同样的表情包可能被用来冒犯他人时,我们真的需要更好的表情包创建功能吗?”
但Jang认为这种思考框架本身存在缺陷 - 它暗示日常带来的小小益处必须证明自己比假设的最坏情景更有价值,这低估了那些带来愉悦、幽默和连接的小时刻如何真正改善人们的生活。这意味着OpenAI正更多地考虑AI为日常创作带来的积极价值,而非仅关注潜在风险。
3. 重视”未知的可能性”
Jang还提到了”看不见的坟墓”(invisible graveyards)概念 - 那些因过度限制而永远不会实现的创新和想法。她指出:”可能由于我们对损失的厌恶心理偏误,导致我们很少考虑不作为的负面影响。”团队正在尝试平衡风险管理与创新空间,考虑那些仅仅因为担心最坏情况而从未实现的积极互动、创新和想法。
具体政策决策案例
公众人物政策的细致考量
博客中详细解释了公众人物政策的制定过程:”我们知道处理公众人物的问题可能很棘手 - 尤其是当新闻、讽刺和被描绘者的利益之间的界限变得模糊时。我们希望我们的政策能够公平公正地适用于每个人,无论他们的’地位’如何。但与其让我们来判断谁’足够重要’,我们决定创建一个退出名单,让任何可能被我们的模型描绘的人自行决定。”
(我觉得Jang的分享已经很实在了,因为这里确实没有100%让所有人都满意的方案,因此也确实不应该由AI公司来判断谁”重要到足以被保护”。)
“冒犯性”内容的重新审视
关于”冒犯性”内容 - “我们推动自己思考任何不适感是源于我们的个人意见或偏好,还是源于对真实世界伤害的潜在可能性。在没有明确指导的情况下,模型以前会拒绝诸如’让这个人的眼睛看起来更亚洲化’或’让这个人更重’等请求,这无形中传达了这些特征似乎具有负面含义。”
(这里讨论的是其实是一种认知偏见的错误强化,比如将特定种族特征或体型视为”敏感”或”潜在冒犯性”的,而实际上这种处理方式本身就可能是有问题的。)
仇恨符号的平衡处理
对于像纳粹卍字符等仇恨符号 - “我们认识到像卍字符这样的符号背负着深刻而痛苦的历史。同时,我们理解它们也可能出现在真正的教育或文化语境中。完全禁止它们可能会抹去有意义的对话和智力探索。相反,我们正在迭代技术方法,以更好地识别和拒绝有害的误用。”
(如何在保护和教育之间寻找一条中间道路是挺难,但依然比一刀切地限制对有争议符号的所有使用是更合理的。)
当下困境与未来期望
Jang坦诚地承认了当前的过渡挑战:”很多图像生成拒绝是由于模型在这一转变中’幻想’出不存在的政策。请在我们努力让模型遵循政策和规范的过程中保持耐心;同时,请在新对话中再次尝试!“
她借用同事Jason Kwon的一句话来概括团队的思考:
“船在港湾最安全;拒绝一切的模型最安全。但这不是船或模型的存在目的。”
对于未来,Jang表示:”未来将由想象力和探索精神构建。随着我们继续研究并从社会中学习,我们相信我们可以继续找到负责任地增加用户自由的方法。当(不是如果!)我们的政策发生变化时,根据真实世界反馈更新它们并不是失败;那正是迭代部署的意义所在。”
创作者应该如何看待这些变化?
OpenAI的政策转变为创作者带来了更大的自由度,但也带来了更多责任。Jang在文章末尾强调,这些考量与技术进步共同推动了更开放的政策方向。她特别指出:”我们认识到这可能被误解为’OpenAI降低了安全标准’,但就个人而言,我不认为这能公正地反映团队的广泛研究、深思熟虑的辩论,以及对用户和社会的真诚关爱。”
对于关注AI创作的人来说,理解这些政策背后的思考过程有助于:
- 更有效地使用GPT-4o:了解边界和可能性;
- 预见未来发展方向:政策将继续根据实际反馈调整;
- 参与更广泛的AI伦理讨论:这些思考反映了整个行业的挑战;
你的创作体验如何?
作为GPT-4o的使用者,你是否已经尝试过生成吉卜力风格的艺术作品?你是否遇到过意外的拒绝或惊喜的成功?你对AI创作政策有什么看法?欢迎在评论区分享你的经验和观点。