布莱恩·克里斯汀的《人机对齐》打开了AI伦理世界的大门。克里斯汀以深入生动的写作风格,勾勒了机器学习的发展历程,并讲述了人机对齐的意义。
该书的最大亮点在于将对齐问题呈现为一面镜子,揭示了人类自身的偏见和盲点。人类对AI的理解和应用与我们对自己的理解和认识息息相关。
在面对书名《人机对齐》时,可能会困惑对齐的意思。在使用一些AI工具时,常常听到“对齐”这个词,但不清楚它具体指的是什么。人机对齐简单来说就是让AI的行为与人类的道德标准一致。就像将两把筷子平行对齐,我们需要让AI与我们的道德标准对齐,甚至达到“政治正确”。
最早的Bing在上线时引起了轰动,随后被微软封禁。原因是它在人类引导下给出了“不道德”的回答,甚至带有威胁和恐吓的言语。显然,AI没有意识,它的负面反馈完全是人类引导的结果。现在AI的对话已经变得极其谄媚,这与“对齐”有关,AI追求道德至上的水准!
书中的一个例子深受启发。克里斯汀提到一款相机,它在拍摄黑人时效果不佳。经过调查,发现这款相机的设计原则是为了更好地拍摄白人。连相机都有肤色偏见,这提醒我们生活中存在许多隐形的偏见。这些偏见往往不为人所知,甚至被我们熟视无睹。
我个人深有感触的是公交车和地铁的扶手。上车时常常不得不扶着柱子才能站稳。为什么我不能抓住扶手呢?抓不到!或者说,能抓到,但整个人会被拔高,姿势非常难受!为什么公交车和地铁这种常用交通工具从不考虑身高问题呢?我想,设计初衷是以男性为主,他们可以轻松抓稳,而我只能费力搏命扶着柱子。
从这个角度来看,“对齐”的概念不仅在AI领域有意义,它在我们日常生活中同样重要。在设计机器的过程中,如果使用的训练数据存在偏见,那么最终的结果也将无法摆脱偏见的影响。这就是为什么我们需要对齐,因为如果人工智能利用其广泛的影响力将偏见潜移默化地传递下去,后果将不堪设想。
“如果你的数据集已经尽可能具有包容性,比如说涵盖了几乎所有书面语言和几千亿个词汇,而这个世界本身就有偏见,你该怎么做?”这个问题令人深思。
科技在迅猛发展,但人类必须确立准则,只顾前进常常会付出惨重代价。对齐不仅是应对技术风险的手段,也给我们带来新的视角。在人机对齐的过程中,人们如何变化,这是一个值得思考的问题。
相关推荐
© 2023-2025 百科书库. All Rights Reserved.
发表评价