Vol.9 在AI前进的道路上还是会有problem

Vol.9 在AI前进的道路上还是会有problem

Published on Apr 27
37:11
摸象计划
0:00
0:00
<p style="color:#333333;font-weight:normal;font-size:16px;line-height:30px;font-family:Helvetica,Arial,sans-serif;hyphens:auto;text-align:justify;" data-flag="normal">人工智能常常被认为是中立的、无偏的,但事实果真如此吗?这期播客,我们从&lt;Code Bias&gt;(《编码歧视》)这部纪录片聊起,讨论了一些已经非常常见的或者在逐渐被广泛使用的人工智能中出现的偏差,甚至偏见。<br />我们还上手测试了搜索引擎的联想词功能和文本情感分析的API,发现了一些不得了的结果。(具体是什么就请在播客后半段里找吧……)<br /><br />【时间线】<br />00:00:10 对于《编码歧视》的介绍<br />00:07:51 在司法、招聘、翻译中使用的一些算法也存在歧视<br />00:17:33 可以去使用有明显缺陷的技术吗?<br />00:23:13 在百度和谷歌搜索中,李彦宏和马云关联了哪些词?<br />00:28:05 情感真的可以被算法所计算吗?<br />00:33:10 人工智能≠客观中立无偏见<br />过渡音乐:Codename Dougwood - Shane Ivers<br />结尾音源:【李彦宏】最新泼水单曲《What's your problem?》- B站up主@李子alt<br /><br />【参考资料】<br />1. 纪录片《编码歧视》<br />https://movie.douban.com/subject/34909073/<br />2. Gender Shades (Joy Buolamwini的人脸识别研究)<br />http://gendershades.org/overview.html<br />3. Machine Bias<br />https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing<br />4. Blacks, Hispanics More Likely To Be Ticketed After Traffic ...