Brookings:为什么人工智能目前还不能完全取代我们?
原创 2024-12-27 09:47 南山 来源:中叉网-中国叉车网实证文献表明,隐性知识--通过经验和实践获得的技能和直觉--对于人类干预的成功至关重要。 当前的生成式人工智能模型--本质上是一个根据过去记录的数据进行校准的大型预测系统--无法捕捉和利用这些知识,这一事实应能缓解人们对劳动力完全替代的担忧,为我们重新思考教育和培训提供参考,并为未来的协作铺平道路。
知识转移悖论 知识可广义地定义为通过经验、教育或学习获得的理解、认识或熟悉程度,包括显性知识(事实性的、基于信息的、记录在案的、易于通过文本、数据集或口头语言传播的知识)和隐性知识(通过实践获得的、不易转移的、表演性的、经验性的技能和直觉)。 人工智能正在以经常被误解的方式重新定义我们的知识方法。 易于传递的知识也是人工智能最容易替代的知识。 然而,也许自相矛盾的是,这种显性知识在人类干预的最终影响中只占一部分,有时甚至是很小的一部分。
虽然从定义上讲,这种隐性知识的发生率难以量化,但我们可以通过一些方法来评估其相对重要性--例如,在公共政策影响评估中,隐性知识占了很大一部分。 为什么劳动政策的影响如此难以确定? 在之前的荟萃分析结果喜忧参半的启发下,我们回顾了近年来实施的 102 项积极劳动力市场政策(AMLP)随机对照试验(RCT)。 由于每项干预措施通常涉及不止一项政策,我们的样本共包括 668 项估计影响,分为四种 AMLP 类型:(1) 就业中介服务;(2) 支持独立工人/微型企业家;(3) 职业培训;(4) 工资补贴。 下图显示了这些影响在每种类型中的分布情况: 可以看出,平均而言,这些影响在统计上并不显著,而且极其多样。
图 : 四种 ALMP 估计影响的分布情况
为什么同样的干预措施在一种情况下有效,而在另一种情况下却失败?
首先,显而易见的是:积极劳动力市场政策以不同的方式和背景实施,针对不同的人口群体,其有效性也各不相同:没有“最佳设计”。开发一个完整的设计空间需要一组标准化变量来表征至少五个基本维度:1)类型(例如培训或工资补贴);2)具体组成部分(硬技能或软技能、指导、货币刺激);3)实施(持续时间、公私合作);4)每个参与者的平均成本(在影响评估中经常被忽视);5)背景(例如宏观经济立场)和目标人群(人口统计数据)。
本文报告的具有统计学意义的设计变量(针对职业培训干预措施的子样本)与背景(影响与增长呈正相关,与失业呈负相关)、重点(针对特定活动可改善结果)、激励措施(对参与者的金钱诱因有帮助)、指导(个性化的后续帮助)和持续时间(较长的计划产生更好的结果)有关。控制这些(和其他)变量对政策影响的发生率可以解释图中结果分散的约 30%——这对于学术出版来说很好,但对于政策制定来说有些麻烦。
但是剩下的 70% 呢:是由于测量误差和缺失变量,还是捕获了其他东西?
写在身上
套用卡尼曼和特沃斯基的区分,我们可以想到知识系统 1 和系统 2。后者可以通过数据和文档传达,通过研讨会、数据集以及元分析来学习。前者更具体验性,它“嵌入”在经历过这些体验的专家的实践和记忆中,无法在一个廉价、用户友好的人工智能平台上复述和传达。实证文献表明,这种知识——在元分析和法学硕士搜索中很难找到——对于人类干预的成功和影响至关重要。
取代人力可能需要比单纯从技术角度所预测的更长的时间。生产者和用户采用的非技术障碍包括对原创文化产品的需求、缺乏适当监管的商业责任、输入限制(例如,用户开始限制或收取其宝贵数据的费用)、我们提供的个人信息相关的可察觉风险以及我们委托程序做出的决定(使我们容易受到黑客攻击等)。
目前,隐性知识只能由专家在现场传递,这又带来了一个障碍:为了让人工智能学习、分享甚至使用它,必须将其提取出来并以口头形式表达出来,换句话说,就是将其明确化。只有这样,它才能被添加到知识体系中,人工智能才能根据知识体系进行分析,并最终确定对实际问题的最佳答案。
算法本身同意:
为了从隐性知识中学习,作为语言模型的我没有直接经验,也不能像人一样观察世界。我的学习基于分析大量文本数据中的模式和结构,这些数据包括经验描述、案例研究、实际示例和特定主题的讨论。这意味着,虽然我可以帮助您理解和反思与隐性知识相关的概念,但我缺乏像人一样通过实践和直接经验来获取或应用它的能力。
我们为何关心?
也许,在未来,我们会找到一种方法来将直觉、价值判断和洞察力从实践经验中产生出来,这样它们就可以被添加到法学硕士的培训工具包中。在此之前,这种以人为本的专业知识将需要人们以一种互补且提高生产力的方式参与其中。这种区别至少对政策有两方面的影响。
第一个问题指向了图灵陷阱这一令人警醒的案例,即技术用成本低廉但质量较差的自动化替代品取代了成本高昂的高质量人工工作。事实上,如果我们开始将这种碰运气的实践工作委托给算法,我们就有可能剥夺人类建立难以记录的专业知识的经验,从而导致更基本的、最终更差的结果——这是一种负外部性的案例,需要制定政策来以非常具体的方式激励以人为本的技术;这种激励是对人类专业知识的补充。
第二个观点直接质疑了传统、内容密集型教育和培训的核心:它强调需要从基于信息的学习(人工智能无法超越)转向行动密集型、通过实践获得专业知识的方法,以创造人类劳动和人工智能之间的协同作用,包括学习使用算法这一非同小可的挑战。
回到我们开始的地方:如果我们继续以释放合作可能性的方式培育人工智能,人工智能将不会完全取代人类特定的知识。