侧边栏壁纸
  • 累计撰写 94 篇文章
  • 累计创建 35 个标签
  • 累计收到 1 条评论

目 录CONTENT

文章目录

皮尤报告:算法时代七大主题,数据与模型将操控人类

天明
2023-10-26 / 0 评论 / 0 点赞 / 38 阅读 / 14127 字 / 正在检测是否收录...

全球权威调查机构皮尤研究所日前发布报告《算法时代》,采访千余专家,分7大主题探讨算法对生活各方各面的影响。报告的目标是客观全面反映当前人们对即将到来的算法时代的看法,结果仅38%的特定受访者预测算法的积极影响将超过其负面影响,而37%的人认为负面性超过积极性;25%表示算法的整体影响将保持在50%-50%左右。算法势必无处不在,对于未来,你抱有希望吗?

算法是解决问题或完成任务的指示说明。配方是算法,数学公式也是算法。计算机代码还是算法。互联网依靠算法运行,所有的在线搜索都通过算法完成。有了算法,电子邮件才知道发去哪里。智能手机的应用程序不是别的,就是算法。计算机和视频游戏是算法写就的故事。如果没有了算法,在线约会、荐书系统和旅行网站将无法运行。GPS 地图系统通过算法让人从 A 移动到 B。人工智能(AI)也是算法。人们在社交媒体上看到的东西是通过算法被呈现于他们眼前。实际上,人们在网络上所见的和所做的一切都是算法的产物。电子表格每做一次排序,都需要用到算法,如今大多数金融交易都通过算法完成。是算法帮助各种设备响应语音命令、识别面部、排序照片,创造并且驾驶汽车。算法会遭遇黑客袭击、网络攻击和破解加密代码的侵袭。自学习算法和自编程算法正在兴起,在未来很多算法将由算法编写完成。

算法通常是你完成任务时会用到的优雅而极其有用的工具。算法大多是看不见的,它们以不可思议的方式在增强人类的生活。然而,有时候好意开发的算法制作的应用程序却会导致意想不到的后果。最近的一些例子包括:

  • 2016年10月7日,英镑价值下跌6.1%,部分是因为算法触发的货币交易。
  • 去年春天,微软开发了Twitter机器人“Tay”与千禧一代聊天,但不出几个小时,Tay 便频频爆出种族主义、性别歧视、否认纳粹大屠杀的推文,原因是它根据算法“学习”那些发送给它的内容,并以此回复他人。
  • Facebook 想要推出一个根据信息流突出流行话题的功能。他们先是请人来编辑,但有人指出人类编辑针对保守派观点存在偏见后,Facebook 就让算法来完成这项工作,结果发现无法辨别假新闻。

数学破坏性武器:大数据如何增加不平等和威胁民主》一书作者 Cathy O'Neil 指出,基于算法的预测分析往往会剥削穷人,在书中她以算法招聘为例讨论了这一点。

善意的算法可能遭到恶人破坏。DNS 是互联网流量处理程序,2016年10月21日,黑客轰炸 Dyn DNS 使其信息过载,美国东海岸地区互联网网速全面减缓,由此开启了使用联网设备进行互联网攻击的全新时代。互联网安全专家 Bruce Schneier 在同年9月警告说,“有人在学习如何弄垮整个互联网”。在2016年美国总统选举期间,滥 Facebook 的新闻流算法和一般的在线假新闻算法引发了巨大的争议。

研究员 Andrew Tutt 呼吁成立“算法 FDA”,Tutt 指出:“越来越复杂的算法的出现,使我们需要就如何最好地预防、阻止和补偿它们造成的危害进行批判性的思考……制定与算法相关的法规将需要采取联邦统一手段、专家的判断、政治独立性和前期市场审查,在不扼杀创新的前提下,防止将危险算法引入市场。

白宫于2016年10月发布了两份报告,详细介绍了算法和人工智能的发展以及解决与之相关的问题的计划,并在12月还发布了一份报告,概述了 AI 驱动自动化对美国就业市场和经济的潜在影响

2017年1月17日,Future of Life Institute 发布了有益人工智能原则的 23 条军规,包括霍金、马斯克、库兹韦尔等数百名世界上最重要的人工智能研究人员在内的1600多人签署了这份文件。

企业和政府正在创造、抓取和分析大量的数据,算法的使用也愈发普及。有些人将这称之为算法时代(Age of Algorithms),并预测这一与机器学习和深度学习相关的算法未来,将以前所未有的速度实现社会的进步。

在 2016 年美国总统大选结束后,鉴于网络工具在这场选举中所发挥的重大作用,有很多分析都指出这些工具将对未来产生革命性的影响。但是,XPrize 基金会首席执行官 Peter Diamandis 预测,技术的发展将令这次选举在技术含量上黯然失色。Diamandis 表示,计算以及嵌入在物联网系统和设备中的 AI 和 AI 代理的快速演变,将带来对选民的超级跟踪、影响和塑造,以及超级个性化的广告,并将创造出全新的方式歪曲现实,将虚假信息固定为永恒。

  • 主题1:算法将无处不在
  • 可见和不可见的好处将加深人类对世界的认知
  • 很多算法带来的好处将伴随着挑战
  • 主题2:算法时代的益处
  • 由数据驱动的问题解决方式将得到普及
  • 代码过程将得到优化;道德伦理问题得到解决
  • “代码无需完美,只要比人类优秀即可”
  • 未来,世界可能由仁慈的 AI(benevolent AI)管理
  • 主题3:当数据和预测建模的重要性成为第一,人性和人类判断将消失
  • 主要为了利益和效率进行的编程活动将带来威胁
  • 算法将操纵人类、操纵结果,甚至“读心”

  • 所有这些都将促成一个有缺陷但却无法避免的、由逻辑驱动的社会

  • 有人担心人类将失去决策能力,不再拥有智能

  • 有人担心复杂系统由代码接管,人类将被抛在一边

  • 主题4:算法组织的系统中将存在偏见

  • 算法反映出编程者和数据的偏见
  • 算法依靠数据,而数据往往是有限、不足或者是错误的

  • 主题5:由算法进行分类将加深各种群体之间的差异

  • 由此到来的不平等将加深
  • 算法将创造出过滤器,将人限制在自己的圈子里,限制人们接触更多外界信息

  • 主题6:失业率将上升

  • 更加智能、高效的算法将取代很多人类工作岗位
  • 有些人试图重构全球经济以维持人类生存

  • 主题7:需要普及算法知识,加强算法透明度和监管

  • 从普及算法知识做起,不仅仅是基本的数字化信息
  • 对算法过程进行责任划分、监管和透明纠察

很多人对算法监管持消极看法

斯坦福大学的 Aneesh Aneesh 这样的分析师预见,在未来,现在的“官僚等级制度”将成为全新“等级治理”(algocratic governance)补充,算法将掌管公共和私人活动。哈佛大学的 Shoshana Zuboff 等人则描述了未来的“信息文明”,在信息文明里将出现一种“监督资本主义”(surveillance capitalism),组织人类的经济行为。

为了阐明当前人们对算法在未来十年的潜在影响抱有什么态度,皮尤研究中心和伊隆大学对技术专家、学者、企业从业者和政府领导人进行了大规模的调查。有1302人回答了这个问题:

未来十年,算法对个人和社会的净整体影响是积极的还是消极的?

结果发现,38%的特定受访者预测算法的积极影响将超过其负面影响,而37%的人认为负面性超过积极性;25%表示算法的整体影响将保持在50%-50%左右。

我们要求参与者解释他们的答案,大多数人都写了详细的阐述,并且提供了针对有关趋势的洞察。我们允许受访者采用匿名回复;在回复中也是匿名占多数。这些发现并不代表所有可能出现的问题的观点,但它们都是根据当前的趋势揭示了有价值的观察。

下面,我们将简要阐述回答中出现的七大关键主题。在介绍部分后,我们将援引部分受访者的观点,深入论述他们对每个主题的看法。

积极影响

主题1:算法势必无处不在

受访者之间存在相当统一的看法,那就是算法对于公众的影响通常是不可见的,并且这种影响将在未来十年中呈指数上升。

这一观点的代表人物是 Sertain Research和StreamFuzion公司的创始人和总裁 Barry Chudakov。他回答说:

“如果每个算法突然停止工作,我们现在所知的世界就全完了。”事实是,我们已经把世界交给了机器学习和算法。现在的问题是,如何更好地了解和管理这些算法。

“算法是人类决策的新决定者,几乎在我们可以想象的任何领域,从观看电影(Affectiva 情感识别)到购买房子(Zillow.com)到自动驾驶汽车(谷歌)。德勤全球预测,全球100家最大的企业软件公司中,有80家将在2016年年底前将通过算法将认知技术集成到他们的产品中。”

算法提供了“一个更好的标准,用来与人类的认知本身形成对比”,它们还促进了对另一种相同认知的思考:我们是如何思考的?通过算法来思考,进而改变世界,这件事到底意味着什么?

“这个主要的积极结果是更好地理解如何做出理性的决定,并以此更好地了解自己。毕竟,算法是通过反复试验,通过测试和观察,根据数学公式得出的,这可以用于很难判断的选择和问题,特别是在直觉上很难得出结论的。

“其次,算法能带来的积极结果是连通性。一切都是或可以与其他一切相连的。利用算法的连通性,以前需要人类操纵和思考的基本过程,现在都可以得到管理、监测和计量。我们的车可以告诉我们放慢速度。我们的电视可以向我们推荐电影观。杂货店可以为我们建议使用健康的肉类和蔬菜的组合做晚餐。

“主要的负面影响可以归结为一个简单、但现在还没有很好解决方案的问题:我们如何看待并彻底理解这些编程到日常行动和决策中的算法的含义?我们不仅需要创造技术解决方案,而且在构建商业模式、公司和市场之前,更要看到这些方案的后果,特别是它们的局限性。”

Chudakov 补充说,在未来十年及以后,“通过扩展数据的收集和分析以及由此产生的信息应用,一个智能或思维操作的层(a layer of intelligence or thinking manipulation)将被创造出来,添加到以往的操作过程或者对象当中。由此带来的结果是,随着信息工具和预测动力学被更广泛地采用,我们的生活将越来越受其固有结论和过程的影响。”

主题2:前景光明

许多受访者指出,算法能帮助理解大量数据,指出这将在日常生活中激发科学突破、新的便捷方式和人类在日常生活中的能力,以及更好的将人们与所需信息联接的能力。它们执行了在人类看来神乎其神的任务,而且将继续大大增强人类的智力,协助完成伟大的事情。持这种观点的代表是加拿大国家研究委员会的研究员斯蒂芬·唐斯,他列出了以下积极变化:

一些例子:

  • 银行。 今天,银行基于非常不完整的数据提供贷款。的确,许多今天有资格获得贷款的人在未来是无法得到的。 然而,许多人 - 可以说是多得多的人 – 在未来将能够获得贷款,因为银行拒绝使用诸如种族、社会经济背景、邮政编码等因素来评估适合度。 此外,随着更多的数据(以及银行和客户之间更具互动关系),银行可以降低风险,从而提供更多贷款,同时提供一系列服务,单独指导,切实帮助个人的财务状况。

  • 医疗保健机构。 医疗保健是一个重要的和不断增长的开销,不是因为人们的健康状况越来越差(事实上,从整个社会来说,事实恰恰相反),而是由于需要支持越来越复杂的系统,包括开处方、保险、医疗设施等,需要大量的开销。新技术将使医疗机构能够将大部分负荷转移给个人,将(在个人支持系统的帮助下)更好地管理人类的健康,协调和管理自己的个人保健,减少系统负担 。 随着医疗保健总体成本的下降,为整个人口提供单一付费人健康保险变得越来越可行,我们已经知道这会对人民健康产生有益有效的影响。

  • 政府。政府的相当一部分职能是基于监管和监测,随着自动化生产和运输系统以及传感器网络的部署,这将不再需要。 这包括许多我们今天与政府的日常(而且是常常令人不快的)互动,从交通违法、民事纠纷到商业和法律过程中的不公平待遇等等。一个简单的例子:美国最持久的政治问题之一是为了对任职者有利,造成了选区划分的不公正。 通过算法创建的选举分类在很大程度上可以消除这种不公正(且当选取划分公开并存有争议时,可以修改完善该结果)。

来自其他匿名受访者的其他回答:

“算法以自动化的方式发现知识,比传统的方法更快。”

“算法可以足够快地压缩数据库,以缓解目前拖慢进度的一些繁文缛节和官僚作风。”

“我们将看到更少的污染,改善人体健康,减少经济浪费。”

“算法具有平等获取信息的可能性。”

“算法的效率将引领更多的创造力和自我表达。

“算法可以减少交通问题;它们可以识别堵车,规划替代路径。”

“无人驾驶汽车可以大大减少每年的事故数量,以及提高大多数人的生活质量。”

“更有针对性地提供新闻、服务和广告。”

“使用算法从社交媒体收集数据和点击踪迹,出现更多基于证据的社会科学 。”

“定位可以防止犯罪的地区,改善并更主动地进行警务工作。”

“欠发达地区减少,国际商业交流增多。”

“算法减少了决策、采购、运输和大量其他行为中的消耗。”

“机器人会根据你的指令购买股票。数字经纪人将找到你需要的材料。”

“任何错误都可以纠正。这意味着算法只会随着时间的推移变得更能满足人类的需求。”

担忧与挑战

这项研究的参与者都严重同意:加速代码依赖带来的大量积极影响将继续推动算法的传播,然而,与所有伟大的技术革命一样,这种趋势有一个黑暗面。大多数参与者指出了自己的担忧。主要的担忧集中体现在报告接下来的这 5 个主题中,每一个主题都包含子主题。

主题3:当数据和预测模型占据统治地位,人性和人类的判断将丧失

算法的进步能够让技术企业和政府搜集、存储、分类和分析海量的数据集。

专家在这项调查中指出,这些算法主要是为了优化效率和提高盈利能力而写,对数据建模和分析潜在的社会影响并没有作过多的考虑。这些受访者认为,在这个过程中,人类被看出是一种“输入”,而不是真实的,会思考的,有感觉,随时都在变化的生命。

他们说,这是在创造一个有缺陷的,仅凭逻辑驱动的社会,随着这一过程不断演化,也就是说,随着算法开始编写算法,人类可能在社会的循环中被遗弃,从而把决定权交给机器。

代表观点:

Clemson大学人本计算( human-centered computing)专业的助理教授 Bart Knijnenburg 回答说:“算法将会把便利和利润放在首要位置,从而造成对特定人群的歧视,并破坏另一些人积累起来的经验。算法的目标是满足一些人的偏好,而不一定是所有人的偏好。从本质上看,算法呈现的是我们的口味和偏好。我最大的担忧是,除非我们让算法可以做到“自我实现”(self-actualization),否则,人们遵循一个算法的建议变得过于容易,也过于简单了(也就是说,人类将很难超越这些算法提供的建议),同时,人们也会渐渐把这些算法变成一个能自圆其说的哲学家,用户则会成为专门消费易于消费项目的“僵尸”。

这将是很方便的人们遵循一个算法的建议(或太难以超越这样的建议),把这些算法变成自我实现预言和用户进入僵尸谁专门消费易于消费的项目。

一个匿名的未来主义者说,“从工业革命开始以来,这样的事一直在发生。每当你设计一个针对效率或盈利能力进行优化的人力系统时,你就是在将劳动力非人性化 。这种非人性化现在已经蔓延到我们的医疗和社会服务上。当你从包含人类的系统中移除人性时,人类就成为了受害者。

另一个匿名回答者写道:“我们根本不能捕捉到用于代表一个人和他的需要,愿望,希望和渴望的每一个数据元素。数据由谁来收集?收集什么?数据点所代表的那个人,他是否知道或者说同意服务条款,又或者是因为他们根本没有选择?

谁从数据赚钱?任普通人如何知道他/她的数据如何被使用?用于什么目的?在这个过程中,没有透明性,监督也成为一场闹剧。所有的一切都被隐藏起来。我将始终坚信数据应该用于丰富和/或保护众人,而不是个人。这是我们所处的经济制度的基本性质。

其他受访者对这一主题的反馈:

  • 潜力是巨大的,但误用和滥用的可能性,不管是故意的或无意的,可能性更大。

  • 公司寻求的是将利润最大化,而不是将社会利益最大化。更糟糕的是,他们将对利润的追逐重新包装为对社会利益的努力。我们正在接近波浪的波峰,波谷的一边是一种新的操纵,营销,几乎完全缺乏隐私的伦理。

  • 我们今天看到的是,实际上,像“差别定价”这样的东西并不能帮助消费者,它只是帮助销售东西的公司。

  • 随着法治、社会正义和经济遭受可预见的破坏,个体人类将像牛一样被圈养起来。

  • 算法正在放大数据代沟和隔离带来的消极影响。

主题4:算法组织的系统存在偏见

两个思路在这里连在一起。一个是算法创建者(代码编写者),即使他们努力做到包容,客观和中立,但是他们也还是在创造中建立了自己的观点和价值观。另一个是,算法所采用的数据集有自己的局限和缺陷。即使是包含了数十亿条信息的数据集,也难以完全捕捉到人们生活的丰富性和经验的多样性。此外,数据集本身并不完美,因为它们不包含每个人的输入或每个人的代表性样本。这两个主题在这些答案中得到体现:

麻省理工学院教学系统实验室执行主管 Justin Reich 指出:“算法将主要由白人和亚洲人设计,数据也由这些掌握特权的人来选择,他们的出发点将是和自己一样的消费者的利益。大多数处于特权地位的人会发现这些新工具更方便、安全和有用。新技术的危害将成为已经在社会中处于不利地位的人最多的经历,比如,广告算法提供保释债券人广告,这里面会假定接收到广告的读者是罪犯;贷款申请广告会投放给那些正在寻找代理人的人,这些都与人类族群相关。

软件工程师Dudley Irish说:“所有,让我重复一遍,是所有的训练数据都包含偏见。其中大部分是种族或阶级相关的。套用伊曼努尔·康德的话,就是,从这些数据集的弯曲的木材中,从来没有出现过直线的东西。

其他受访者对这一主题的反馈:

  • 根据定义,算法是非人性的,并且基于总数据和一般假设。人们编写的算法,甚至那些基于数据的算法,只是人口的一个非代表性的子集。
  • 如果你从一个不平等的地方开始,并且使用算法来寻找一个人/系统的可能结果,你一定会带来不平等。
  • 我们都会被视为一种同质化的物种,这显然是一种错误。
  • 结果可能会成为偏见和有害的决定的制度化借口,他们会说:计算机做出决定,所以我们必须接受。
  • 算法将反映人们带有偏见的思维。垃圾进垃圾出(Garbage in, garbage out)。生活的许多方面将受到影响,但很少有人会得到帮助。监督将是非常困难或不可能的。

主题5:算法分类将深化分歧

许多受访者的答案中提出了两个关于社会分裂的相关观点。首先,他们预测,算法辅助的未来将扩大数字精英(主要是最富裕的,新信息生态系统中最想要得到的人群)和那些几乎没有连接或能够参与的人之间的差距。第二,他们说社会和政治分裂将被算法所推动,因为算法驱动的分类会引导人们重复和强化媒体上和政治上的内容。两个说明性答案:

Fit to Tweet的所有者Ryan Hayes评论说:“二十年前,我们谈到了”数字鸿沟“,即在家里有计算机的人 VS 家里没有计算机的人,或者可以访问互联网的人VS不可以访问互联网的人。但是,从现在开始的未来十年,一个由带有传感器和处理能力的强大AI以及与大量的数据相联网所增强的人类,他的能力和对世界的认知,将与那些无法拥有这些工具或者不知道如何使用这些工具的人迥异。

人与人之间的这种鸿沟将是自我永恒的,那些能力较弱的人在许多方面将更容易受到更多的伤害。

波士顿学院的访问学者 Adam Gismondi 写道:“我担心,随着用户被隔离到不同的意识形态领域时,人类的同理心可能会受损。面对对立的观点,如果我们能够(主动地或被动地)以不同的角度避免与他人产生冲突,这将对我们的社会产生负面影响。

关注主要社交媒体公司在未来几年会增加什么功能是比较有说服力的,因为在信息流的结构中,他们有巨大的权力。

其他受访者对这一主题的反馈(详情请参阅完整报告中的更全面的版本):

  • 如果当前的经济秩序继续下去,那么我看不到数据驱动算法的增长除了对社会上最富有的人以外,还会对其他人有任何好处。

  • 社会不平等大概会变得更加丰富。

  • 主要风险是,不太规律的用户,特别是那些集中在一个或两个站点或平台上的用户,将不会开发这种导航和选择的设备,他们自己也将处于不利地位。

  • 算法使得选择更有效。积极的影响将是增加利润,组织能够避免风险和降低成本。负面影响将被所有算法所认为具有风险或利润较低承担。

  • 效率和命令带来的好处被高估了。在我们的生活中保持一些混乱是很重要的。

主题6:失业率将上升

人工智能的普及可能造成大面积失业以及由此带来的各种不良后果。

一个匿名的CEO 说,“如果工作可以由算法有效表达,那么这个工作很容易由机器完成。我所看到的负面趋势是——随着算法的崛起,人类会在很多职位和工作上被机器/计算机取代。那么人类的命运往何处去?”

其他受访者对这一主题的反馈:

  • AI 和机器人很可能瓦解劳动力市场导致人类百分百的失业。它们更聪明、更有效率、更高产、成本更少,所以企业和商业应该会往这个方向发展。

  • 自动化引发产能大爆发,这将会加大从业者和资本方的不对等。

  • 现代西方社会建立在一种社会模式上,资本被交换为劳动力来提供经济增长。 如果劳动力不再是交换的一部分,那么影响是巨大的。

  • 没有工作,人口不断增长,对普通人自主运作需求减少。这算什么温暖?

  • 我预测算法几乎全面取代工作人员,被替代的人类毫无选择。

  • 长期看来,这可能对人类是件好事,不再需要做低价值、重复性的工作,可以激励他们创造更高的价值。

  • 但愿各国会以实施最低保障生活工资和K-12以上的免费教育,以应对这样的形势。否则最聪明的人将利用在线资源快速超过平均个人水平,最富有的人将利用他们的经济力量获得更多的政治优势。

主题7:普及算法知识,加强算法透明度和监管

这次调查的受访者对个人及社会应该如何应对生活的算法化(algorithmization)提出了许多不同想法。他们主张在公共教育中加入有关算法在公众生活中的作用的知识,他们还指出,那些创造和发展算法的人目前没有对社会解释,并认为他们应该以某些方式负责。

代表意见如下:

  • Susan Etlinger,Altimeter 集团行业分析师,她说:“就像我们想知道一件商品,例如食品或服装,它们是在什么地方、以何种方式生产出来的,我们也应该质疑我们的数据和决策是如何得出的。这些信息的供应链是怎样的?有明确的管理和审计跟踪吗?所得的假设是基于部分信息,有缺陷的来源还是不相关的基准?数据是否得到了充分的训练?是否有合适的利益相关者参与,是否从错误的经验中学习?所有这一切的要点是,在未来十年内,我们的管理组织的整个管理方式都需要改变。创造及改变现实的力量将存在于只有少数人理解的技术中。因此,为了确保我们能正确地使用算法,无论是为了赚钱还是为了人类福利,还是两者兼具,我们都需要有管理和问责的机构。说起来容易做起来难,但假如说工业上和学术界最聪明的头脑需要聚在一起解决这个问题,现在正是应该这样做的时候。”

  • Chris Kutarna 是《发现的时代》(Age of Discovery )的作者,同时也是牛津大学马丁学院院士,他写道:“算法是一种明确的启发式形式,是一种规律化的进行选择和决策的方式,所以我们不需不断地处理知觉输入。这种应对策略一直与人类,以及与我们的整个社会系统和数据环境的复杂性共同演变。明确地意识到我们的简化的假设和启发法是我们的智力和影响力变得成熟的重要位点。现在的不同之处是,明确地对这些启发式方法进行编程的能力日益增强,在人类心智之外,在机器和平台之上执行这种简化的能力也日益增强。我们需要一些时间来发展智慧和道德以理解并指导这种能力。在此期间,我们确实不知道应用这种能力的安全程度如何。最重要的一点是提高社会对它的认识,即谁,怎样,在哪里应用这些能力。”

其他受访者对这一主题的反馈:

  • “资本无利不起早,不愿意去打击filter bubbles, profiling 以及相关的负面影响。政府/国际组织也几乎无能为力。“

  • “监督机制可能包括更严格的访问协议;签署数字管理伦理守则后才能被任命为信息管理员;个人对信息调用的在线追踪;选择退出功能;设置访问时间;未经同意禁止第三方出售。”

  • “除非更努力地让真正的读写信息的能力成为基础教育的一部分,否则将会出现两个阶级,一个能够使用算法,一个被算法使用。”

  • “电脑用户需要更多了解和掌握电脑的使用,他们的使用习惯也需要被关注,这应该是21世纪电脑素质教育的核心。”

  • “找到一个框架,以允许透明度和评估结果将是至关重要的。还需要对算法‘价值链’有广泛的理解,并且理解数据是关键的驱动因素,并且与其训练的算法一样有价值。”

  • “算法问责制是一个大项目,需要理论家、实践者、律师,社会科学家、记者和其他人的智慧。这是一个紧急的、全球性的事业,投身其中的专家们也需要支持。 ”

  • “最终,软件责任法将被面临改革,因为从现在开始,程序员真的可以从谋杀中脱罪。

  • “The Law of Unintended Consequences 表明,算法中越来越多的社会层面和技术层面的复杂性肯定会造成不可预见的灾难性事件的发生 - 可能完全出乎我们的意料。

  • “最终,我们将发展现有的机制,给消费者更大的控制权,这应该导致更多的理解和信任……这种推动是不可避免的而且非常必要的,从长远来看,会让我们每个人都受益。“

  • “我们需要某种彩虹联盟来制定规则,以避免出现先入为主的偏见和群体思维影响结果。”

  • “算法太复杂,无法完全透明或永远彻底安全。这些因素将持续影响我们文化的方向。”

  • “我期望元算法的研发,以努力抵消算法的负面影响。“

一些匿名回答者针对这一主题说:

  • “黄金法则:拥有黄金的人会制定法则。“

  • “坏人似乎远远超过好人了。”

  • “抵抗是徒劳的。“

  • “算法是由想要向你销售东西(商品、服务、意识形态)的人们定义的,并且会扭曲结果以利于此。”

  • “算法肯定有帮助,但除非结合人类的知识和政治意愿,否则可能不够。”

最后,我们以这位自匿名参与者的预测结尾,他/她看到可能的是两个极端之一:“总体的影响将是乌托邦的诞生或人类的灭亡;没有可预见的中间路线。我怀疑是乌托邦,鉴于我们已经从一次生存危机中挺了过来(核战争),我们迈向和平的脚步尽管缓慢,却也依然坚定。”

出处:http://36kr.com/p/5064365.html

0

评论区