AI Bias? Human Bias?
知乎用户霍华德在问题「如何评价清华大学沈向洋教授在快手讲课时说的「要避免传统社会语境里的偏见被带入AI」?」下回答:
我来说点政治不正确的话。在算法里偏见里是什么?就是最基本的统计规律。
假设你做个银行信贷审核的模型,大量统计后发现种族是显著性特征,p值小于0.000000005了。80%的黑人都会还贷逾期最后变成坏账。毫无疑问这是一个极强的特征。现在疯狂搞政治正确,说算法也不能用这样“种族歧视”的特征,你删掉,发现准确率暴跌20%,预示着银行放贷风险大增,未来可能产生巨量坏账。你觉得银行会为“政治正确”买单么?不会的,只会说你不行,让你背锅。
那怎么办?逼着人搞些proxy feature,如客户的出生地、祖籍等,把“种族歧视”转变为“地域歧视”,把歧视“黑人”转化为歧视“肯尼亚”。说到底都是白左粉饰太平的手段,也体现出白左的虚伪。
多伦多宣言已经开始了,大搞根正苗蓝那一套政治正确,普世价值。
该回答由用户最后编辑于2020年3月13日10点31分。
用户梁一韬评论道:
怎么什么跟偏见,政治正确的东西都能提到白左。我们就算不谈这些形而上的东西,只说feature本身。那坏账率高是和种族肤色本身有关,还是其实更多的是背后和种族相关的别的features相关(如收入,信用纪录,消费习惯,etc.)。那我把一个白人,亚裔的肤色改变成黑色了难不成坏账率就改变了?这根本说不通吧。更不提人种按肤色划分这件事本身是不是合理的就在科学上有争议。更多的其实反而是,种族成了别的真的影响坏账率的东西的proxy feature了吧。这应该是最明显的confounding variable的例子吧。别的回复也提到了causality这个问题。那我们身为researcher明知道这里有问题,还反而强调这都是白左的粉饰太平,是不是也太逃避我们应该承担的社会责任了。
值得一提的是,从她们的个人页面能看到,二人均有技术相关的背景。霍华德曾就读与新加坡国立大学,是腾讯的算法工程师;而梁一韬的教育经历为加州大学洛杉矶分校 CS PhD。同样是对技术前沿有着高于常人认知的人,为什么在对社会问题的判断上有如此大的分歧?
虽然我们确实无法完全掌握 causality 的奥义,但是以「数据就是这么说的」为借口躲避技术权力拥有者的社会责任,是一种比犬儒更有危害的态度。计算机科学领域的人们需要更好的社会科学教育。