Ethics in Tech

Last updated on:July 1, 2022

(Banner: Captain Toad: Treasure Tracker)

前言

几个月前在不同场合读到/听到「包容性设计」,搜索过程中稀里糊涂地加了一堆书,没想到越陷越深、越跑越远。

技术和伦理都是很宽泛的话题,作为技术行业的菜鸟新生,我并没有什么指点江山的发言权。但不论是信息的排列方式还是媒体的算法歧视,都与我们的生活息息相关。说到底,我希望我不会愚弄别人,更希望我不被别人愚弄。

Technically Wrong 中,Sara Wachter-Boettcher 逐一列举了技术行业的种种问题,案例丰富,章节之间联系紧密。如果说有什么缺点,那就是作者的指摘可能会让一些人觉得钻牛角尖、吹毛求疵——毕竟科技行业不是万能药,而是在通过不断迭代更新取得进步,书中的部分问题或许已经找到了解决方案。

但这并不矛盾。当我们挑刺时,不是在要求技术变革放慢脚步、墨守成规,而是希望技术背后的人类能够以更高的道德标准约束自己,用严谨的目光审视技术的局限,把它作为工具而非武器。

Sara 在前言中写道:

我希望你可以像我一样看待技术:它没有魔法,容易犯错,并且需要改变。更重要的是,我希望你在面对数字产品及其背后的人时,可以大胆地提出尖锐的问题。长久以来,技术已经让太多人感到自己不重要,不足以被纳入设计的考量。然而我们很快就会了解到,这不是你们的错,这是技术的问题。

招聘

许多企业一方面声称追求员工的多样性(Diversity),另一方面又在招聘和晋升时过分强调契合、融入公司文化(Cultural fit)。女性、有色人种、性少数群体的机会非常有限,各式各类的性格测试也成了隐形的门槛。

某种程度上,我作为求职者的确会把文化纳入考量,因而主动避开某些我讨厌的工作氛围——虽然浪费了不少时间,但至少我还有得选。如果大多数公司主动设置了这样的门槛,那些本就选择有限的群体的生存空间将会受到进一步打压。

即使声称在招聘中运用算法也无法保证公平,毕竟亚马逊的 AI 招聘系统就被曝出性别歧视,给予女性简历较低的评价。

这样的招聘流程会带来怎样的后果?

设计产品时,单一的视角会为产品设限,也会导致人们忽略一些本应存在的细小声音。对在校生、求职者来说,如果他们在一个公司里看不到与自己匹配的形象,自然会怀疑自己究竟能不能、应不应该进入那个地方。

You can’t be what you can’t see.

设计

两年前在上 Tableau 数据可视化的网课,为了省力,我把数据新闻课的项目(关于韩国电影票房趋势)同时作为网课作业的选题。

那是我第一次学习到用户画像(Persona),很奇怪为什么假想观众还要带照片。抱着这种的疑虑,考虑到数据里面有韩语的公司名称,我在用户画像里加上了一句「懂韩语」。

然而到了同学互评时,还是有人专门指出,韩语部分看不懂。

我心想:我知道,没关系,但我已经这么做了,就是假设观众都是能看懂的人。

——可是,看不懂也不是他们的问题啊?他们只是不在所谓的用户画像范围内。

比如将一个产品的目标用户定为「二十代都市白领」,产品团队会首先考虑这部分人群的需求,但他们并不能保证「五十代乡村企业家」不会使用该产品。

有人使用经期追踪软件来计算怀孕概率,也有人用它来谨慎避孕、调理身体。有人用健康软件来观察减肥时的体重变化,也有人用它来记录孩子成长的速度。这些产品在发送自动提醒时,能够预知人们截然不同的需求吗?换句话说,开发者能够拓宽视野、考虑周全吗?

设计师的技巧之一是在设计时提前勾选/填入默认选项,即用所谓的 Smart defaults 来减少认知负担。最好的情况下,基于用户研究得出的数据会为大部分用户节约时间(我当然希望抗原申报系统自动选择了阴性)。最坏的情况下,企业对自身利益的追求会使默认选项成为令人反感的Dark pattern(淘宝能不能别再让我公开评价了)。

默认选项会影响我们对「主流」的认知,默认设置悄悄夺走了我们的隐私,而改变选择需要大量精力。

Default settings can be helpful or deceptive, thoughtful or frustrating. But they’re never neutral. They’re designed.

设计中用「边缘情况」(Edge case)来指代极端的、少见的场景,因而在开发过程中的优先级会为主流用户让位,或者可能被忽视。健康云倒下后,随申办站了起来,却第一天就爆出问题——身份证尾号X的核酸码无法读取,最终还是要带上身份证手动输入。

在设计「年度照片」或者「历史上的今天」这样的功能时,产品团队默认大家看到的都是开心的回忆,却忘了有些人最受关注的帖子可能是悲伤的故事。几年前,设计师Eric Meyer在脸书年度回忆中看到他去世的女儿,撰文提醒科技公司算法的缺陷——如果不能面面俱到,至少应该给用户一个opt out的机会。

世界很大,现实并不只有一个答案。

(最近看到腾讯微云可以设置不显示那年今日——不过网盘为什么需要历史回顾功能啊?)

道德

人工智能正在迅速发展,随之而来的是比人类世界有过之而无不及的道德难题。

比如聊天机器人(Chatbot)。赋予语音助手一个名字算是「品牌声音」的一部分,但这种人格化并不是一劳永逸。

Amazon 的语音助手 Alexa 就让很多同名者感到不满。同名记者 Alexa Juliana Ard 的报道称,许多受访者表示自己在线课程或会议中无法正常使用自己的名字(因为会唤醒别处的语音助手),甚至因此收到骚扰。

微软将小冰引入美国时改名为 Tay,首先引来了 Taylor Swift 律师的邮件提醒——他们认为这个名字使得聊天机器人与歌手之间「建立了一种虚假和误导性的联系,违反了联邦和州法律」。

更大的问题在于推特用户对 Tay 的恶意训练,导致它一天之内就学会了许多污言秽语,于是微软很快将其撤离市场。

微软在2018年确立了执导人工智能发展的六项道德准则:公平、可靠和安全、隐私和保障、包容、透明、责任,随后衍生出18条人机交互设计准则

话说回来,人工智能也不是完全比人类更智能。Rebooting AI 的作者就一针见血地指出,科技公司的美化及媒体的渲染夸大了AI的真正水平,计算机并不具备理解世界运行常识的能力。

反馈

数据科学家 Cathy O’Neil 将算法模型形容为数学杀伤性武器(Weapons of Math Destruction)——与大型杀伤性武器(Weapons of Mass Destruction)只有一字之差。这种武器有三个特征:不透明、规模化、毁灭性,人们在其面前往往没有回击之力。

她强调,统计系统需要反馈通路,需要用差错训练模型使之更加智能。如果没有反馈,大数据模型就会持续输出错误的结果,使得受害者陷入恶性循环。

人力调动软件使得许多人在经济大萧条期间丢掉了工作。教师评估系统导致校方和学生产生错误判断。大学排名的存在让学校不得不采取行动迎合评分模型,聘用客座教授来提高论文引用次数,或是在就业数据上弄虚作假。

前文提到求职时的性格测试,往往没有可靠的反馈和追踪机制。性格测试理论上没有标准答案,公司并不会知道刷掉的求职者在别处的表现如何。假如真的有标准答案,那么谁能保证这份答案的公平,谁能保证求职者不会为猜测答案而撒谎呢?

Cathy 在她的书中提到,2008年经济危机爆发之后,金融工程师 Emanuel Derman 和 Paul Wilmott 起草了一份《金融建模宣言》,或许值得各行各业的数据科学家借鉴:

  • 我将牢记我并未创造世界,也不会让世界来满足我的方程式;
  • 虽然我将大胆使用模型来估算价值,但不会过分倚重这一数学分析;
  • 我将永远不会为了追求模型的简洁而牺牲现实的复杂,除非我能够对这样做的原因给出一个合理的解释;
  • 我也不会向使用我所创建的模型的人们夸大模型的精准性。相反,我将明确说明模型中的假设条件和模型忽略的因素;
  • 我明白我的工作可能会对社会和经济造成巨大的影响,其中的许多影响将超出我的认知范畴。

风险

Artificial Unintelligence 的作者 Meredith Broussard 是位数据新闻记者。她从数据中挖掘故事,让计算机来辅助她的报道,但她同时呼吁人们在运用技术时理解技术的边界和限制。「社会还是这个社会,计算机并没有解决我们的社会问题。」

简单复制现实世界的模型不能带来公平,因为现实世界本就处处充满不平等。比如搜索职业人物画像时出现的男女、种族比例,比如面部识别软件对深色皮肤的不友好。

前不久,有居民在小区的淘鲜达群里贴出截图,发现相同产品有两三种不同价格。官方人员解释说便宜的是新用户首单优惠,而界面上并没有明确提示。基于用户分组进行的「价格优化」很有可能变成众人鄙夷的「大数据杀熟」。

技术不能代替人类解决一切问题,因此极端情况必须有人力解决方案。当患者想了解医院的开放情况,人工热线仍然是比互联网信息更可靠的途径,尤其是在封城期间,人工服务的缺失会带来更严重的后果。

关于算法阴暗面的书籍数不胜数,在此就不赘述(其实是懒得一本本看)。

Meredith 的这段话总结了技术带来的种种风险,呼吁我们以平行的目光看待技术及其背后的人类:

如今,我们已经成功利用数字技术加大了美国的贫富差距,促进了非法药物滥用,破坏了新闻自由的经济可持续性,引发了“假新闻”危机,削弱了公民投票权和公平劳工权益,监视公民,传播垃圾科学知识,在网上对人进行骚扰和跟踪(主要是女性和有色人种),让飞行器学会了一些能力(最好的能力是骚扰人,最坏的能力是扔炸弹),增加了身份盗用的案件,致使黑客为盗取数百万信用卡号用于欺诈活动,出售大量个人数据,选出唐纳德·特朗普做总统。这并非早期技术传道者愿景中更美好的世界。今天这个世界所存在的人性问题从来有之,不是什么新鲜事。但今天的问题藏身在代码和数据中,这使得它们更难被发现,更容易被忽略。
显然,我们需要做出改变。我们不应该再迷恋技术。我们需要审核算法,警惕不平等现象,减少计算系统及科技行业内的偏见。劳伦斯·莱斯格写道,如果代码是法律,那么我们需要确保编写代码的人不违反他们写下的法律。至今,他们在自我管理方面的努力还有许多进步空间。

结语

以上问题虽然根深蒂固,但至少还有讨论空间。至于社交软件频繁锁帖、删号、陆续公开IP地理位置这种强盗行为,就不单单是技术行业的问题了。

每当从 App Store 下载一个软件,我就要点击好几个允许/拒绝授权,再把 App 内部的隐私设置修改一遍,但实在无力通读隐私政策。或许隐私政策通常只是个摆设,看不见就当做不存在。然而在豆瓣强制更新政策——不同意就无法继续使用时,我除了闭着眼睛点击同意别无他法。不久后就发现多年前的文章悄无声息地被锁上。

不过,在我们可掌控的范围内,还是可以(并且应该)动动手指让自己的声音被听到。

用 Sara 的最后一段话来结尾吧:

要想成功摆脱技术的冗余和缺陷,我们必须换一种方式看待数字工具——它不是奇迹,也不是恶人,仅仅是设计师和技术人员作出的一系列选择罢了。许多决策看似微不足道,比如按键上的文字、数据集的来源,但每一个都进一步影响了我们如何看待世界,以及世界上的人们。
我们可以要求他们作出不一样的选择——并不是希望技术失败,恰恰是因为我们希望它成功,前提是它能为我们所用。毕竟,大多数人并不讨厌技术。我们爱它。现在是时候要求它回报这份爱了。

==

2022/05/18