热搜:


你对频繁死机的电脑感到崩溃吗?


我们可能认为:相比于笨拙的人类,我们对功能失常的应用程序或设计糟糕的算法会更为苛刻。然而这只是一种模糊的猜测。


事实上,用户对机器反而可能更具有同情心,他们似乎并不会对机器的错误感到生气或者苛责。根据César A. Hidalgo的说法:这主要是因为用户审判机器是根据它们的行为结果,而不是行为目的。


无论是面对有偏见的结果还是不公平的决定,用户似乎从来没有真正的在机器身上寻找道德原因,而只是把它们当成功能的载体


这产生了四个新视角诠释人机交互的有趣行为科学结论。


一、AI决策和人类判断


一幅由机器学习还原的奥巴马打码照片


无论是辅助人类做决策,又或是雇佣新员工,识别人脸,我们都听说过算法偏见是如何影响人工智能的。算法收集的数据保留了系统性的判断偏见,这有时候会反映在对某些个体的歧视性决策中。


但是人类对机器制造不公平行为有什么感觉呢?相比于人类的歧视,他们会更反感机器吗?


César Hidalgo试图通过社会实验来回答这些问题。他向参与者展示了几种歧视情况,并要求他们判断决策在人类或者机器负责下的公平性。这些场景里有:HR在候选人相同资质相同的情况下从不选择某种特定出身的候选人,和警察总是关押一些相同族群的无辜群众。


在这些情况下,参与者都认为人类的行为更具有目的性,因此更需要责任感。因为参与者认为人类的行为带有自己的主观意愿,所以他们的行为比机器的错误判断更受到指责。然而,当问起他们应该由谁来取代这些歧视者,他们的答案更倾向于选择更正直的人。


二、人类对自动化工作的模糊认知


当面对自动化工作或者工作替代的时候,这种模糊性再次出现。Hidalgo通过类似的实验研究了人们对这种情况的反应。他向参与者讲述了一些故事:比如公司员工要么被AI机器人取代,要么被效率更高,更有精力的外国年轻员工取代。Hidalgo询问参与者在不同情景和不同行业内对此会有什么感受。


令人惊讶的是,参与者更情愿取代他们工作的是机器人,而不是外国人。虽然他们的偏好因情况而异:更接受司机被自动驾驶卡车取代,而不是老师被教学机器人取代,但他们通常同意他们更喜欢自动化而不是另一位工人。


对这类情况的解释有几种。参与者可能觉得技术的发展是不可避免的,而被外国工人取代会激发他们的归属感。他们可能能更加切身的体会到后者的威胁性,因为这发生得更为频繁。人力替代感觉上也更不公平,因为同等资质的外国工人凭什么更有权利获得工作?


这也解释了为什么和1990~2000年间欧美企业外迁劳动力相比,自动化引发的情绪抵抗似乎没有那么的极端。


三、对机器事故的毫不宽容


自动驾驶汽车比人类驾驶员更负责任吗?


随着自动驾驶离现实越来越近,我们可能好奇:相比于人类驾驶员,用户如何看待自动驾驶汽车需要承担的责任?


为了回答这个问题,Hidalgo和他的团队把参与者置于各种各样的道路事故之中。这些事故的严重程度可能取决于内在或外在因素,也包含了是伤害司机还是路人的抉择。


这项实验首次提出了自动驾驶汽车担负了巨大的责任。参与者对涉及自动驾驶汽车的事故判断更为消极,认为它们会造成更严重的伤害。其中一个原因是因为他们更容易把自己带入人类驾驶员的视角他们更能同理人类司机做出的反应,尤其这是由外部因素导致的事故。


因此,参与者对造成事故的机器毫不宽容,希望它们更可靠安全。


四、机器的好坏完全取决于结果


我们可以从这些研究中得出什么结论呢?



César Hidalgo | How Humans Judge Machines | Talks at Google(建议前往youtube观看)


首先,当整体看待受伤害感和行为目的的关系时,人们认为人类行为比机器行为更带有目的。然而矛盾的是,参与者仍然会更容易原谅人类的行为,因为他们更容易将人为错误视为坏运气的结果,而机器错误则是需要纠正的错误。


当我们在研究行为目的和不公正之间的关系时,我们发现了一个更符合人类判断的事实:对于那些带有当事人强烈主观意图的场景,人们显然会对人类行为做出更为负面的评价。人们认为人类需要为自己的邪恶意图负责任,而机器则被默认为没有自己的意图和目的。另一方面,一些本身不带有目的的情况,机器则承担的责备会更多。因为我们已经假定了机器的程序可以避免任何错误。


最后通过评估不公正的感知和伤害范围之间的关系,我们发现:对受害人造成的伤害越小,机器就越被视为罪魁祸首;相反,当伤害越大,人类当事人承担的评价就越为负面。


总之,我们看到了两种截然不同的判断模式。


当涉及人类当事人时,观众就会通过当事人的意图来评判他们的行为:他们可以犯错,但如果居心不良,他们就需要对自己的行为负责。


另一方面,机器的评估标准是行为的结果:如果它们无法避免破坏性的错误,无论发生的是什么,它们都会被批评。好的一面是,对于一些通常被定性为非常严重的情况,因为机器行为不带有目的,所以常常不被苛责。


但这也意味着,作为设计师的我们,需要尽量减少数字服务和智能应用程序可能产生的间接伤害和歧视。因为可没有人会同情设计糟糕的算法


译者注:设计师和算法的关系


由于译者正好从事自动驾驶行业,所以就简单聊聊这个话题。可能有人会认为糟糕算法是程序员的问题,这和设计师有什么关系?


但事实上在以正向研发为主要流程的企业内,一个需求落地至少要经过产品经理,设计师,研发和测试四个阶段。产品和设计师需要根据客户/用户的诉求去定义和产品的功能和使用方式,然后研发才会在设计的框架内去实现这些功能。自然当设计师遗漏或者忽视一些安全问题时,研发是无法发现的,因为在他们的角度,功能的上下文是不明确的,他们只专注于功能本身的研发。


举个例子,假设我们设计一个工业园区内使用的远程自动驾驶汽车遥控器,它的功能是给车辆派发运货订单,并且可以远程启动车辆。那么如果设计师对于使用场景足够了解,他会发现如果远程启动车辆,突然的启动可能会对周围在装卸货的工人带来安全隐患。所以需要在这个阶段提供预警或者二次鉴权的操作。而这可能是客户的原始需求中没有提及或者客户觉得麻烦的功能,如果产品和设计没有深入研究,自然研发无法发现这样的问题。这就是我理解的为什么设计师需要对算法负责。


关于设计师的责任这一块,有兴趣的朋友可以看一看前文《》。我也和一些人交流过这个问题,刚毕业的设计师觉得,我们需要为用户负责!我们要站出来说话!在社会中摸爬滚打了多年的设计师多会认为这非常的理想。


确实,从企业角度来讲,道德如果无关乎企业生存,是会被自动忽视的,或者当成一种营销手段。只有一些和道德高度绑定的行业,比如说自动驾驶行业,设计师才会有必要,有能力去考虑一些道德问题。


当然,我也不是说设计师不需要也没有能力去承担责任,而是说希望大家能够多去思考自己的正在做的产品,而不是说盲目地为了KPI或者OKR去完成设计任务。可能你的一次轻微的尝试就会给产品带来一些正面的影响。