/ equality

大数据,正在侵蚀这个社会

当晦涩难懂的学科领域中悄悄出现一些无良的行为,往往只有靠“告密者”,这些行为才能被公诸于众。这正是前量化交易员Cathy O'Neil在发现大数据行业中的问题后所做的。Cathy O'Neil,一位哈佛毕业的数学家,花费了数年时间在Barnard教书,在DE Shaw(世界顶尖对冲基金之一)工作,并开了一间个性化广告投放的创业公司。

不像那些在伊拉克想发现却从未发现过的大杀器,数据驱动的算法正包围着我们。我们的领导们用它们为我们的表现打分,我们孩子的老师的任职与解雇由它们决定,它们还决定着谁拿学分,谁要付更高的保险金,谁会收到奢侈手提袋的广告,谁会被针对性的投放野鸡大学的广告。

事实上,正是那最后一个案例促使了O'Neil,“占领运动”的成员,写这本书:有一次在公司里听报告的时候,一位投资人对公司的技术让他从此不用再看到凤凰城大学的广告而是只收到诸如去阿鲁巴度假和摩托冲浪的广告啧啧称赞,这让她意识到,这门技术带来的不是善意,而是将人们关入各种不同的牢笼,永远不用再承认有贫困阶层的存在。

O'Neil眼见着大数据的使用和次贷危机中近乎掠食性的贷款发放,这两件事的影响十分微妙,即使是对于内行人而言。就像那些导致2008金融危机的金融黑手段一样,这些将我们归类成“配得上的一类”和“配不上的一类”的大数据算法往往都是不透明和不受监管的,更别提那些那些使用这些算法的跨国大公司往往都还动用他们庞大的游说能力来保持它们的继续使用。“这种带歧视和掠食性使用算法的做法,几乎就是一场无声的金融危机”,O'Neil说道。

这些算法带来的效应是带有巨大伤害性的。O'Neil使用她在建模上的深入理解为我们演示了算法如何基于跟导致金融危机的那些肤浅和不确定的因素一样的数据集评价教师们,她的演示展示的一点问题尤为令人不安,那就是如果你被划分在了算法分类的某一方,那么接下来这个分类带来的效应将如滚雪球一般增大:例如,一名年轻的黑人,生活在打击犯罪算法控制的区域,该算法会针对区域中更高的犯罪率自动向该区域指派更多的警察,而更多的警察会导致轻微的的违法行为也被判为有罪,继而这样的一份电子档案将会持续的影响他的信用,工作前途等等,然而白领犯罪高发地则不会如此被针对。

在高等教育中,给院校评级的算法已经引起了一阵教育军备竞赛,院校纷纷发放更多荣誉,而不是关注学生的需求,以使他们自身的排名更加靠前,而在这同时,那些骗钱的私立院校则在不断的寻找经济上或社会交际上存在着困难的学生的“痛点”,用各种网上收集来的数据综合分析出如何精准投放相应的广告给“福利妈妈”,近期离婚者,失业者,被控告者和那些伤残者等等。

O'Neil在书中写道,大数据分析模型正在不断的惩罚着贫困阶层,因为这些算法”被打造成评估海量人群的特种工具。”贫困阶层越来越多的接触到的是永远也见不到面的老师和雇主,“富裕阶层,反过来,则受益于面对面的接触,一间财富500强的法律咨询公司或者一间尊享的预科学校能给予的推荐机会或者面对面面试远比一家快餐连锁或财务上捉襟见肘的市区学校强。

特权阶层与有血有肉的人对接,大众平民接受着机器的处理。”

这是个令人恐惧的未来,这个时代已经有那么多的力量在暗中推动着社会的不公,我们如何解决这样的难题?O'Neil提议模仿医学界,让数学家也宣誓“希波克拉底誓言”,她和其他人一道建议对这个迅速成长的领域进行更深层次的调控,比如可以通过监管者部署随机的评估算法,且对这些大数据算法带来的深远影响开展深入的研究(普林斯顿最近开展了一项名为“Web透明度和可审计性项目”的项目,该项目目标是研究算法种族歧视和算法歧视),O'Neil还提议更新现有的人权法规,使其包含计算机算法方面的条目。她的书中有这样一句话:“大数据远远没有你想象的那么科学和公平,伴随着它到来的是算法创建者们各种各样的偏见和谬误。我们不应继续迷信拥有最多数据的人就掌握着对的答案。”

原文地址:http://time.com/4471451/cathy-oneil-math-destruction/

作者:@RanaForoohar
译者:Mr.Kua