您可以做的16件事,使技术更合乎道德,第1部分

这篇文章是3部分系列的第1部分。请退房 part 2part 3 以及 .

甚至在Google宣布成立AI伦理委员会之前,其中就包括 反跨性别,反LGBTQ和反移民 遗产基金会主席(该委员会是 一周后取消),我们已经知道Google领导层在道德方面的立场。这些是还钱的人 高管被指控性骚扰 损失了数千万美元(使受害者一无所有);容忍员工将其LGBT +同事的姓名和照片泄露给白人至上主义网站(据一位在Google工作了11年的著名工程师所说);并允许高级管理人员 纽约时报的误导性陈述 关于破坏生命的重要问题。亚马逊成立很久之前 涂抹麻省理工学院的研究人员 谁确定了 亚马逊面部识别的偏见 技术后,亚马逊总部的多名女性在接受低绩效评估或直接执行绩效改善计划(被解雇的前兆)后 癌症治疗,大手术或生下死胎。 Facebook和道德的主题可以(并且确实) 填补自己的职位但一个关键点是Facebook高管 在2013年,2014年和2015年被警告 如何使用他们的平台在缅甸煽动种族暴力,但直到联合国于2018年裁定Facebook在缅甸种族灭绝中起着“决定性作用”之前,未能采取重大行动。 由于顶级高科技公司的领导层似乎并不关心“常规”道德规范,因此它们当然也无法体现AI道德规范。

人工智能伦理与其他伦理并没有分开,而被隔离在自己更为性感的空间中。道德是道德,甚至AI道德最终都与我们如何对待他人以及我们如何保护人权(尤其是最弱势群体的人权)有关。 创造的人 我们当前的危机 不会是解决它们的人,这取决于我们所有人的行动。 在本系列中,我想分享一些可以采取的行动,以产生实际的积极影响,并重点介绍一些现实世界中的例子。有些很大;有些很小;并非所有这些都与您的情况有关,但是我希望这会启发您围绕可以有所作为的具体方法。本系列的每个帖子将涵盖5或6个不同的操作步骤。

  1. 数据项目清单
  2. 进行道德风险扫描
  3. 抵制指标的暴政
  4. 选择广告以外的收入模式
  5. 有产品&工程信任& safety
  6. 在公司内倡导
  7. 与其他员工一起组织
  8. 内部倡导不再有效时离开公司
  9. 避免无损协议
  10. 支持周到的法规& legislation
  11. 与记者交谈
  12. 预先确定您的个人价值观和极限
  13. 要求您的公司签署SafeFace服务承诺
  14. 通过确保成功派驻代表性不足的团队的员工来提高多样性
  15. 通过全面检查面试和入职流程来增加多样性
  16. 分享您的成功故事!

数据项目清单

伦理与数据科学 (可免费在线获得)认为,就像清单可以帮助医生减少更少的错误一样,它们也可以帮助从事技术工作的人减少道德上的错误。作者为从事数据项目工作的人员提出了一份清单。以下是清单上要包括的项目:

进行道德风险评估

即使我们有良好的意愿,我们的系统也可以被操纵或利用(或以其他方式失效),从而导致广泛的危害。只需考虑Facebook在 缅甸种族灭绝 以及串谋理论如何通过推荐系统传播,导致 疫苗接种率大幅下降导致可预防疾病的死亡率上升(自然界将病毒错误信息称为“最大的大流行风险”)。

与渗透测试是信息安全领域中标准的方法类似,我们需要在系统发生之前主动搜索潜在的故障,操纵和利用我们的系统。正如我在 以前的帖子 ,我们需要问:

Markkula中心的伦理学家开发了一种 工程设计的道德工具包& practice。我鼓励您阅读所有内容,但是我特别想强调工具1,道德风险扫描,该工具在一个过程中从上面正式化了我的问题,包括定期建立计划的道德风险清理和奖励发现新的道德风险的团队成员。

抵抗公制的暴政

指标只是您真正关心的事情的代理,并且 意外地优化指标可能会导致意外的负面结果。例如,YouTube的推荐系统旨在优化观看时间,从而使其能够积极宣传视频,说明其他媒体在撒谎(因为相信阴谋论会导致人们避免使用其他媒体资源,并最大限度地利用他们在YouTube上的时间)。这种现象已被充分证明 记者 , 学术专家前YouTube 雇员 .

《卫报》文章Guillaume Chaslot的照片
《卫报》文章Guillaume Chaslot的照片

幸运的是,我们不必无意间优化指标!第4章 技术上错误 记录了NextDoor如何针对其平台上的广泛种族特征进行了一系列全面的更改。 NextDoor改进了用户报告可疑活动的方式的设计,其中包括一项新要求,即用户必须描述该人的外貌的几个特征,而不仅仅是允许张贴。这些更改具有减少参与度的副作用,但并非所有用户参与度都很好。

Meetup的首席机器学习工程师Evan Estola, 讨论了这个例子 在技​​术聚会上,男性比女性表现出更大的兴趣。 Meetup的算法可以向女性推荐更少的技术聚会,因此,更少的女性会发现并参加技术聚会,这可能导致该算法向女性建议更少的技术聚会,依此类推。 。埃文(Evan)和他的团队针对其推荐算法做出了不道德的决定,以不创建此类反馈循环。

选择广告以外的收入模式

个性化广告定位与社会福祉之间存在根本的错位。这以多种方式显示:

这些问题可以而且应该以多种方式解决,包括更严格的法规和围绕政治广告的执行,住房歧视和就业歧视; 修订第230条 仅涵盖内容,不涵盖建议;并以我们对烟草征税的方式向个性化广告定位征税(这是使社会付出巨额费用的一种手段)。

诸如Google / YouTube,Facebook和Twitter之类的公司主要依靠广告收入,这会产生不正当的激励措施。即使人们真的想做正确的事, 不断努力抵制激励措施不统一是很困难的。这就像在开始节食时在厨房里装上甜甜圈。解决这一问题的一种方法是寻找广告以外的收入模式。开发人们会支付的产品。有很多其他商业模式的公司,例如Medium,Eventbrite,Patreon,GitHub,Atlassian,Basecamp等。

个性化广告定位在在线平台中根深蒂固,试图摆脱它的想法令人生畏。但是,万维网的创始人蒂姆·伯纳斯·李(Tim Berners-Lee) 去年写: “目前有两个神话限制了我们的集体想象力:关于广告是在线公司唯一可能的商业模式的神话,以及改变平台运作方式为时已晚的神话。在这两点上,我们都需要更具创造力。”

有产品&工程与信任& Safety

中号法律负责人Alex Feerst写了一篇 他采访了15个人的帖子 谁在信托上工作&安全(包括 内容审核)在各种大型科技公司中,Feerst所指的角色是同时担任 “互联网的法官和看门人。” 作为一个信托& Safety (T&S)员工观察到, “创造者和产品人员希望以乐观的态度生活在人们如何使用产品的理想视野中,而不是人们可以预期地破坏产品的方式……产品人员和信任人员的分离让我担心,因为在这个世界中,产品经理,工程师和有远见的人会关心这些东西,这些东西将融入到如何构建中。如果一切保持这样的状态—产品和工程都是莫扎特,而其他所有人都是阿尔弗雷德·巴特勒,那么大的东西就不会改变。

拥有产品和工程技术的影子,甚至与T在一起&S代理(包括内容主持人)是解决此问题的一种方法。对于这些平台的创建者而言,它使滥用技术平台的方式更加明显。在&另一家公司的员工描述了这种方法, “在与用户通话期间,我们有高管和产品经理的影子信任和安全代理。坐在一起与性侵犯受害者交谈的特工有助于建立同情心,因此当他们回到自己的团队时,当他们考虑构建事物时,它就在他们的大脑后面。

未完待续...

这篇文章是系列文章中的第一篇。请退房 part 2part 3,并采取进一步措施来改善科技行业。我们面临的问题可能会令人不知所措,因此从此列表中选择一个项目可能是一个很好的开始方法。我鼓励您选择要做的一件事,并立即作出承诺。

其他关于技术伦理的fast.ai帖子