您的位置:首页 >资讯 >

人类判断力的差异导致人工智能出现问题

导读 许多人在某种程度上理解偏见的概念。在社会和人工智能系统中,种族和性别偏见是有据可查的。如果社会能够以某种方式消除偏见,所有问题都会

许多人在某种程度上理解偏见的概念。在社会和人工智能系统中,种族和性别偏见是有据可查的。

如果社会能够以某种方式消除偏见,所有问题都会消失吗?已故诺贝尔奖获得者丹尼尔·卡尼曼是行为经济学领域的关键人物,他在他的上一本书中指出,偏见只是硬币的一面。判断错误可归因于两个来源:偏见和噪音。

偏差和噪音在法律、医学和金融预测等领域都发挥着重要作用,而人类的判断在这些领域至关重要。在我们作为计算机和信息科学家的工作中,我和我的同事发现噪声也在人工智能中发挥着作用。

统计噪声

在这种情况下,噪音意味着人们对同一问题或情况做出判断的方式存在差异。噪音问题比乍一看更加普遍。一部可以追溯到大萧条时期的开创性著作发现,不同的法官对类似的案件给出了不同的判决。

令人担忧的是,法庭案件的量刑可能取决于气温和当地足球队是否获胜等因素。这些因素至少在一定程度上让人认为司法系统不仅有偏见,而且有时还很武断。

其他示例:保险理赔员可能会对类似索赔给出不同的估计,这反映了他们判断中的噪音。噪音可能存在于各种形式的比赛中,从品酒会到当地选美比赛再到大学招生。

数据中的噪声

从表面上看,噪声似乎不太可能影响人工智能系统的性能。毕竟,机器不受天气或足球队的影响,那么为什么它们会根据情况做出不同的判断呢?另一方面,研究人员知道偏见会影响人工智能,因为它反映在人工智能训练的数据中。

对于像 ChatGPT 这样的新人工智能模型来说,黄金标准是人类在常识等一般智力问题上的表现。 ChatGPT 及其同行是根据人类标记的常识数据集进行衡量的。

免责声明:本文由用户上传,如有侵权请联系删除!