百亿美金的“人在回路”捞金术:Mercor的AI淘金热是否根基不稳?
![[翻译机器人故障: 异常 - ResourceExhausted]](https://images.pexels.com/photos/186537/pexels-photo-186537.jpeg?auto=compress&cs=tinysrgb&dpr=2&h=650&w=940)
引言: Mercor通过将高薪人类专家与AI实验室连接起来,迅速崛起并达到100亿美元的估值,这无疑引人注目。然而,在每小时200美元合同和大胆预测的光鲜外表之下,我们必须扪心自问:这种模式究竟是一场可持续的革命,抑或仅仅是弥补人工智能根本缺陷的一种极其昂贵、暂时的权宜之计?
核心提炼
- 高级人工智能的近期未来有赖于昂贵且领域特定的人类专业知识,这揭示了当前模型的局限性,而非其自给自足的能力。
- 麦科尔成功利用了市场对于高质量、细致入微的AI训练数据的关键需求空白,这与通用众包标注截然不同。
- 该公司的商业模式在可扩展性、人工智能实验室的成本可持续性以及利用前员工“行业专业知识”所带来的迫在眉睫的法律泥潭方面,面临重大的长期挑战。
深度解读
AI的叙事常常让人联想到自主系统从海量未标记数据中学习,最大限度地减少人工干预的场景。然而,Mercor 100亿美元的估值却呈现了一个截然不同、或许更真实的画面:人工智能的前沿仍然需要极其高强度的人工参与指导。CEO Brendan Foody声称前10-20%的承包商推动了模型的大部分改进,这不仅仅是一个营销口号;它强调了当前AI在没有明确、高质量人工指导的情况下,难以掌握细微差别、上下文和特定领域推理能力的关键性失败。
这并非普通的亚马逊土耳其机器人(Mechanical Turk)任务。Mercor不仅仅是在标注图片;它正在从在复杂领域深耕数十年的个人那里提取高度精炼的专业判断。这解释了其200美元/小时的天价,以及像OpenAI和Anthropic这样的AI实验室为何愿意支付。其含义深远:AI若想真正处理复杂、非结构化的知识工作——比如高盛分析师或麦肯锡顾问所做的工作——首先需要这些专家将他们的大脑“下载”到模型中。这正是Mercor与Scale AI等公司的不同之处,Scale AI此前的困境可能凸显了宽泛、低成本众包对于AI前沿发展的不适用性。其“秘诀”是简单的套利:将高度具体的供应与紧急、高价值的需求连接起来。
现实世界的影响是多方面的。一方面,它为某些技术专业人士创造了一个新的高薪零工经济,挑战了“AI将摧毁所有工作”的即时恐慌。另一方面,它也对正在开发的AI的真正自主性和智能性投下了怀疑的目光。如果这些先进模型只能通过如此密集且昂贵的人工干预才能显著改进,它们究竟有多“智能”?更令人担忧的是Foody提到的关于公司机密的“灰色地带”。要求高盛或麦肯锡的前员工与可能自动化其前雇主工作的AI模型分享“行业专业知识”,这并非灰色地带;这是一个法律和道德雷区。这不仅仅是通用知识;它通常包含专有流程、方法论和积累的战略洞察。任何雇用这些人的公司都应该极其关注知识产权泄露问题,无论是否存在保密协议。Foody关于“整个经济都在向训练AI代理汇聚”的宏大愿景,听起来与其说是一个预言,不如说是一家公司为其在价值链中当前(利润丰厚)地位所做的自我服务式合理化。它忽视了谁拥有这些“训练”过的知识,以及这究竟是暂时的必要之恶,还是永久的经济结构这一根本问题。
对比观点
从乐观的角度来看,Mercor 不仅仅是一个权宜之计;它是人工智能发展中至关重要且具有进化意义的一步。支持者会认为,在人工智能获得真正的常识和强大的推理能力之前,这种“人类在环”模式,尤其是有高水平专家参与的情况下,不是弱点,而是优势。这是向模型灌输细致入微的、隐性知识的最有效方式,而这些知识仅凭原始数据是无法获得的。这种方法能确保更高的质量,减少“幻觉”,并加速开发真正有用的人工智能代理。此外,通过支付高薪,Mercor 吸引了最优秀的人才,从而推动了良性循环的改进。这种模式可以被视为一座必要的桥梁,它使人工智能立即变得实用,同时推动其走向未来的自主性,而不是等待理论上的突破。高昂的成本仅仅是尖端创新的代价,以及机器尚未能复制的人类智慧的价值。
前景探讨
鉴于人工智能实验室对高质量训练数据和专业知识持续不断且永不满足的需求,Mercor未来一到两年的前景看起来很强劲。然而,巨大的障碍也赫然在目。首先是可扩展性:虽然前高盛/麦肯锡人才储备有限,但其中有多少人真正有空、愿意并能够长期以这种水平持续贡献?“行业专业知识”的质量和一致性很难标准化和规模化。其次是成本可持续性:人工智能实验室能否永久性地承担以实现人工智能普遍部署所需规模的每小时200美元的人力投入?这种成本结构限制了Mercor训练模型的广泛应用,使其目前仍是一种专属的奢侈品。
最关键的是,知识产权和道德伦理雷区是一个定时炸弹。前雇主最终必然会对其认为的专有知识盗用采取法律行动,即使这被包装成“通用行业专业知识”。这可能会严重限制Mercor的人才库或导致巨额的法律成本。最后,还存在一个悖论式威胁:如果Mercor成功训练人工智能代理来自动化知识工作,这些代理难道不会最终减少甚至消除对人类训练师的需求吗?从而从长远来看,动摇Mercor的核心商业模式。这是一场数据的淘金热,但矿脉可能比看起来要浅。
原文参考: How AI is reshaping work and who gets to do it, according to Mercor’s CEO (TechCrunch AI)