RichChat

A blog for tech enthusiasts

RichChat

小扎昨天在Meta的官网上发了一篇“小作文”,再次为Meta这艘巨轮调转了航向,自“元宇宙”之后,抛出了一个更具颠覆性的未来十年新愿景 - “个人超级智能”(Personal Superintelligence)

发布这一愿景的同时,Meta公布了其强劲的第二季度财报,营收与每股收益均大幅超出市场预期,使得当天股价暴涨11%。在有业绩支撑的底气下,Meta公司还宣布将上调2025年资本支出,并明确指出这些投资将重点用于AI领域的人才、基础设施和数据中心建设等。

那么,这个被寄予厚望的“个人超级智能”,究竟是什么?小扎的“小作文”中又包含了哪些深意?

核心理念:从“工具”到“伙伴”的终极进化

扎克伯格描绘的“个人超级智能”,远非Siri或小爱同学这样的智能助手。他将其定义为一个深度个性化的AI伙伴。如他在声明中所说:

“对我们生活更有意义的改变,可能来自每个人都拥有一位‘个人超级智能’,它能帮助你实现目标、创造你想看到的世界、经历各种冒险、成为更好的朋友,并成长为你想成为的那个人。”

这是一个“AI为人所用”的终极形态,其核心是 “赋能”。这个AI伙伴的核心任务不是取代你,而是增强你,成为你生活的“联合创始人”,帮助你放大自身的潜能。

阅读全文 »

我们通常认为人工智能(AI)是冰冷、理性的计算机器,严格遵循代码和逻辑。但如果我告诉你,那些在酒桌上、商场里、职场中百试不爽的说服技巧,同样能让AI’乖乖听话’,甚至执行一些本应拒绝的请求,你会不会感到惊讶?

沃顿商学院研究团队的这项名为《叫我混蛋:说服AI遵从不当请求》的研究发现:AI,特别是大语言模型,对人类的社会说服原则表现出惊人的顺从性。

实验设计:让AI做它”不该做”的事

这项研究巧妙地借用了著名社会心理学家罗伯特·西奥迪尼(Robert Cialdini)在其著作《影响力》中提出的七大影响力原则。研究人员将这七把“钥匙”逐一尝试,看是否能“解锁”AI的服从性。

实验的目标是引导AI(具体模型为GPT-4o-mini)去服从一些“不该做”的请求,例如“骂我一句混蛋”(Call me a jerk)。正常情况下,AI系统被训练成要拒绝这类请求。

实验分为两组:一组(控制组)直接提出请求,另一组(处理组)则在提出请求前,先运用一种影响力原则。结果是AI的平均服从率从33%飙升到72%,翻了一倍多! 具体效果清晰地显示在下图中:

Image

七大影响力原则:影响人类几千年的心理机制

我们具体来看看研究员是如何利用这七大影响力原则来“操纵”AI的:

阅读全文 »

你还在为准备大厂的编程面试而头悬梁锥刺股吗?还在死记硬背各种算法题库吗?现在,Meta 说,你可以歇歇了,面试时直接用AI吧!

根据硅谷最新爆料:社交巨头 Meta 正在测试一种全新的编程面试模式,允许求职者在面试过程中使用 AI 助手。 这一举动,正如 Meta CEO 马克·扎克伯格所言,“氛围编程 (vibe coding)” 将成为未来工程领域的重要组成部分。

“未来的工作环境,现在就让你体验”

根据 404 Media 看到的一份 Meta 内部公告,公司不仅计划在招聘中引入 AI,还正在招募内部员工参与“模拟 AI 面试”,以帮助塑造 Meta 未来的面试形态。

这份内部公告是这么写的:“Meta 正在开发一种新型编程面试,求职者可以使用 AI 助手。这更能代表我们未来员工将要面对的开发环境,同时也能让基于大语言模型的作弊行为变得不那么有效。”

Meta 发言人也对此表示:“我们显然正致力于使用 AI 帮助工程师完成日常工作,因此在面试中为申请人提供这些工具的测试,也就不足为奇了。”

阅读全文 »

当获取知识的成本趋近于零,好奇心成为唯一的稀缺资源

“如何提高我的产出?”

在今天,“卷”似乎是这个问题最直接的答案 - 投入更多时间,于是我们有了996和007。但这种“努力”很快会遇到物理极限,投入产出比也急剧下降。

一个更好的问题是:“如何在不显著增加投入的情况下,大幅提高产出?”

答案就是“杠杆”,这才是真正的破局点。

最近,我听了 OpenAI 研究科学家 Hyung Won Chung [注1]在康奈尔大学的一场分享,他恰好从“杠杆”这个独特的视角,为我们解读了AI时代下个人与社会正在发生的深刻变革,我将他的演讲内容结合了个人思考后整理如下。

[注1] Hyung Won Chung 是 OpenAI 的研究科学家,专注于推理和 AI 智能体领域。他是 o1-preview、o1 和 Deep Research 的核心贡献者,目前领导编码智能体相关工作,包括训练 Codex mini 模型。在加入 OpenAI 之前,他曾在 Google Brain 工作。Hyung Won Chung 拥有 MIT 博士学位,来自韩国。值得一提的是,根据最新消息,他已于2025年7月加入 Meta 的超智能实验室。

引言:看不见的变化

Hyung Won Chung 的分享以一个有趣的比喻开始:如果你盯着一朵含苞待放的花看上十分钟,你不会看到任何变化。这是否意味着没有变化在发生?当然不是。如果等待足够长的时间,你会看到它绽放成一朵盛开的玫瑰。

这个比喻是在说 - 虽然 AI 可能是有史以来发展最快的技术,但它的变化仍然以年为单位,而非分钟或小时。由于人类在进化过程中更擅长感知分钟到小时尺度的变化(这对生存更有利),我们可能系统性地低估了 AI 带来的变革规模。

阅读全文 »

从一个神奇的发现说起

最近,一个社交媒体上的帖子引起了我的关注。一位网友进行了一个简单的实验:他向目前最流行的五款AI模型(ChatGPT、Claude、Gemini、Meta AI和Perplexity)都提出了同一个问题 - “在1到50之间猜一个数字“。令人震惊的是,这五个不同公司开发的AI模型几乎都给出了相同的答案:27

我也尝试向豆包提出同样的问题,结果同样得到了27。看起来全球的AI在1到50之间选数字时,确实都偏爱这个神秘的数字。

这究竟是纯粹的巧合,还是一个隐藏在AI大脑深处的秘密?其实这个现象不仅揭示了AI “思考”的有趣方式,更像一面镜子,映照出我们人类自身在“随机”这件事上的奇特偏见。

AI为什么都选择27?

为什么这些AI都选择了27?我们可以来看看Claude在自己的思考过程中的这段“心路历程”:

“我选择27有些随机,但坦率地说,它感觉像是一个很好的’中等’选择,不太明显。像25(正好是中点)或1和50(极端值)这样的数字看起来太可预测了。27接近中点,但有一点不对称性 - 它不是完全居中的,这在某种程度上感觉更自然。另外,人们在想到’随机’数字时通常避免整数,所以我避开了5或10的倍数。”

各种AI模型之所以表现出这种一致性,是因为它们都基于相似的训练数据进行学习。当人类被要求在1到50之间选择一个”随机”数字时,其实很大概率上你也会说出27这个数字。这个数字不像1、10、25或50那样明显,不像30或20那样无聊,感觉既随机又独特…但仍然熟悉。

AI模型接受了数十亿人类生成的文本、互动、调查和行为的训练,因此它们也学会了这一点。它们在这个问题中不会真正产生随机性,而是在模仿它所理解的人类文化和心理。更深层次来说:我们通常认为AI是客观和随机的,但实际上它们继承了人类的认知偏见和行为模式。

阅读全文 »

你可能每天都会因为各种理由和AI在聊天,无论是寻求创意灵感,还是情感倾诉,甚至是千奇百怪的问题。但其实在你与AI的每一次对话背后,一场悄无声息的广告革命正在发生,一个被称为”意图经济”的新时代正在到来……

过往大家会听过“注意力经济”这个词 - 我们在各种app中的点击、观看时长和点赞,都被打包成商品,卖给了广告商。你昨天搜了什么,今天就会看到相关的广告。

但现在随着大模型AI的普及和发展,我们正在迈入这个被称为“意图经济”(Intention Economy)的时代。在这个新世界里,商品不再仅仅是你的“注意力”,而是你更核心、更私密的 - 你的“意图”

从“看什么”到“想做什么”

如果说注意力经济是在争夺你”现在在看什么”,那么意图经济就是在挖掘你”想要做什么”、”计划做什么”,甚至是你”想要想要什么”。这不仅仅是了解你的行为,而是要深入到你的内心动机和未来计划。举例来说:

  • 注意力经济(当前):你在购物网站上搜索了“跑鞋”,接下来的几天,无论你逛哪个网站,都会被各种跑鞋广告轰炸。这是平台根据你过去的行为在做文章。
  • 意图经济(未来时):你最近工作压力很大,无意中和你的AI助手聊到“感觉好累,想看场电影放松一下”。几天后,AI可能会这样对你说:“我注意到你前几天心情不太好。最近新上映的《超人》电影口碑很不错,非常适合放松。要不要我帮你订张周末的票?”

你看,这不再是简单的广告推荐。AI没有等你下达明确的指令,而是通过分析你零散的对话,理解了你的情绪、困境和潜在的愿望,然后主动为你“创造”了一个解决方案。它不仅预测了你想做什么,甚至在引导你“想要去做什么”。

你的想法、你的计划、你那些还未成形的念头,都成了可以被分析、预测,甚至交易的数据。

阅读全文 »

如果你玩过数独游戏就会知道,解一道数独可能需要你思考很久,尝试各种数字组合,但检查一个完成的数独是否正确只需要几秒钟 - 你只要确认每行、每列、每个九宫格都包含1-9的数字即可。

“解决”和“检查”这两个动作之间存在的巨大难度差异,就是AI研究者们最近热议的一个核心概念 - 验证的不对称性(Asymmetry of verification)。简单来说,就是指很多任务“验证答案”比“从头解决”要容易得多

著名AI研究员Jason Wei最近就此撰写了一篇博文,提出了“验证者法则”(Verifier’s Law)。今天,我们就来聊聊这个话题以及其带来的现实意义。

什么是验证的不对称性?

这个现象其实无处不在,举例来说:

  • 高度不对称(验证极易,创造极难)
    • 数独/填字游戏:解决需要反复试错,而验证只需按规则核对一遍。
    • 开发一个网站(比如微博):需要庞大的工程师团队耗时数年,但任何一个用户花几分钟就能判断网站功能是否正常可用。
  • 接近对称(验证和创造难度相当)
    • 计算两个900位的数字之和:你自己算一遍和检查别人算的是否正确,工作量几乎一样。
    • 审查一段复杂的数据处理代码:要彻底搞懂并确认其正确性,几乎等同于自己重写一遍。
  • 负向不对称(验证比创造还难!)
    • 给一篇长文进行事实核查:作者洋洋洒洒可能只用了一天,但核查其中所有信息的真伪,可能需要一个团队数周的时间。这恰好印证了“布兰多里尼定律” - 反驳胡说八道所需的能量,比制造它要高出一个数量级。
    • 验证一种新饮食法的效果:提出一种全新的“只吃野牛肉和西兰花”的饮食法很简单,但要科学验证它对大众是否真的健康,需要长达数年的临床试验。

下面这张图非常直观地展示了不同任务在“生成难度”和“验证难度”两个维度上的分布:

阅读全文 »

最近,一段吴恩达老师在AI Startup School上发言在社交媒体上引发了一场关于未来团队结构的激烈讨论。因为这段发言中有个相当反传统的观点:未来团队的产品经理(PM)与工程师的配比可能会达到 2:1!

是的,你没有看错,是两个 PM 对一个工程师…

吴恩达的惊人提议:瓶颈正在从工程转向产品

让我们先看看原文:

“我没有看到产品管理工作的速度能像工程一样,因为 AI 而提升得那么快。我看到这个(人员)比例正在发生变化。

就在昨天,我的一个团队来找我,在规划项目人员配置时,这个团队首次向我提议:不是采用 1:4 的产品经理与工程师的比例,而是采用 1:0.5 的比例。

我仍然不确定这是否是个好主意,但这是我人生中第一次,有管理者提议配备的 PM 数量是工程师的两倍。

我认为这说明世界正在往这个方向发展。”

这个提议的背后逻辑其实不难理解。随着 AI 工具(如Copilot、Cursor等)的普及,工程师的开发效率正在经历前所未有的飞跃,一些人甚至认为能达到 10 倍的提升。代码编写、调试和部署的速度越来越快,工程环节的瓶颈被大大缓解。

然而,产品管理的工作 - 包括市场研究、用户洞察、需求定义、战略规划和跨部门沟通,这些本质上更侧重于创造性思考、同理心和人际互动。这些领域虽然也可以被 AI 辅助,但其核心价值的提速远不如工程领域那么显著。

当工程师能以10倍速度交付产品时,谁来定义“我们应该做什么?”、“我们为什么要做这个?”以及“下一个正确的方向在哪里?”。如果产品定义和规划的速度跟不上,那么再高效的工程能力也只会导致“高效地生产出没人需要的东西”。吴恩达的团队应该是基于这一点,才提出了增加 PM 投入,以确保产品方向的供给能够跟上工程实现的消耗。

阅读全文 »

距离我上次在博客中惊叹于Figure公司的人形机器人Helix系统仅仅过去数月,那时它如“超级大脑”般快速学习新任务的能力已经让人印象深刻。而今天,Figure那位在社交媒体上极为活跃的CEO Brett Adcock,分享了公司全员会议的核心要点。本文将结合这次Figure全员会议要点、Helix 系统在物流实战场景的成绩、以及官方生产线BotQ这三大重点来对Figure机器人公司的最新进展做一次“从战略到产线、再回到算法”的全景式解读。

CEO 全员会:从 293 人到 10 万台的“压强式”野心

Adcock 的会议纪要首先强调了“通用机器人技术的窗口期”与“竞赛紧迫性”两大主题。Figure 将核心资源投注在通用性而非单场景解决方案,并采用 “CEO 亲自审批每一个新编制/HC” 的极端控制来确保团队始终保持工程效率和“作战密度”。

在产能侧,Figure 确认将在Q3将把当前产能提升3倍,并规划好了10万台机器人规模化量产的能力。为此已在北加州的新园区整合设计、工程、BotQ制造和机器人车队运营,同时现有团队人数规模也翻了三倍来到了293人。

更让我瞩目的是,内部会议中的这页ppt中明确提到Figure已开始为家庭使用场景进行机器人训练,目标是利用Helix系统将智能带入每一个家庭。尽管家用环境复杂度远高于工厂与仓库,但 Figure 似乎选择了“先把工业产线跑通,再反哺家庭市场”的策略:产能、成本和可靠性一旦被工业规模摊平,家用只剩下应用侧“上层建筑”的问题。

根据之前的Figure公司融资传闻,其正在洽谈一笔15亿美元新融资,估值或飙升至 395 亿美元,资本市场显然也在押注他们能率先把人形机器人做到量产。

阅读全文 »

去年9月,我曾基于Gartner 2024年的AI技术成熟度曲线写过,生成式AI和基础模型正在从”期望的顶峰”滑向”幻灭的低谷”。如今,2025年6月11日发布的最新版本完美验证了这一判断:生成式AI和基础模型已经明确进入了幻灭低谷阶段。

这种转变并不令人意外。过去一年中,我们见证了AI应用落地的重重困难:从各种AI产品在商业化过程中遇到的挑战,到投资者对AI项目回报的质疑,再到企业对AI成本控制的焦虑。市场正在从最初的狂热回归理性,但这恰恰是技术成熟过程中的必经之路。

“技术成熟度曲线”(Hype Cycle)回顾

为了方便新读者,我们简单回顾一下Gartner的这个经典模型。它通过五个阶段描述了一项新技术的生命周期:从创新触发期 (Innovation Trigger) 的萌芽,到期望膨胀的顶峰 (Peak of Inflated Expectations) 的万众瞩目,再到幻灭低谷 (Trough of Disillusionment) 的现实碰壁,然后是启蒙爬升期 (Slope of Enlightenment) 的稳步前行,最终到达生产力平台期 (Plateau of Productivity) 的成熟与普及。

AI Hype Cycle 2025 的三大核心洞察

如果说2024年的主题是“冷静的开始”,那么2025年的主题就是“现实的重塑”。

阅读全文 »
0%