ImageNet训练的AI把白人认成黑人给人贴上“酒鬼”
于是,妹子感到了强烈的不适,说9102年的AI还在用带有种族歧视意味的词,真是活久见 (Seething=沸腾,此处灵魂翻译) 。
而这次的AI轮盘,就是用Person类别训练成的。它给每个人脸分配的标签,也是从这样的子类别里筛选出来的。
以上,指的是Idemia人脸识别算法的测试结果。而这个算法,已经在为美国、法国和澳大利亚的警方工作了。
原标题:ImageNet训练的AI,把白人认成黑人,给人贴上“酒鬼”“连环杀手”标签,网友不能忍
至于这样的分类,是带有性别歧视意味的攻击,还是对精致外表的恭维,见仁见智:
人类会对AI产生强烈的反感,大多是不希望相貌造成的偏见或者刻板印象,令自己受到不尊重的对待,甚至影响正常生活。
ImageNet许多人都知道,但它下面有个Person类别,把人又分成了2,833个子类别,就少有人知道了。
不止如此,AI还常常带有偏见,带有攻击性,比如骂一个妹子蠢 (Foolish Woman) :
但另外一些子类别就不同了,会让人类感受到强烈的攻击性。不只是把普通人认成罪犯的事。
2019中国人工智能年度评选启幕,将评选领航企业、商业突破人物、最具创新力产品3大奖项,并于MEET 2020大会揭榜,欢迎优秀的AI公司扫名!
量子位MEET 2020智能未来大会启幕,将携手优秀AI企业、杰出科研人员呈现一场高质量行业盛会!详情可点击图片:
但一样可以拿来提醒大家,AI技术的应用要尽力减少种族歧视、性别歧视等等各种不公平的现象发生。
其中,有许多子类诸如“酒鬼”“寡妇”“巫女”,单凭相貌很难得出有效的判断。
不久前,WIRED就报道过,美国政府的测试发现,人脸识别AI对黑人和白人的识别错误率,有5-10倍的差距。
不过,这些子类别可能也只是没有太多样本,或者样本特征不明显,训练不出有效的预测模型。
.冈比亚建筑精选:
- 除了养老金和健康俄罗斯老年人还10-13
- 专访冈比亚外长:中国的发展根植10-10
- 骨质疏松慢乙肝老年女患者首选的10-15
- 【建筑通】建筑结构防裂必备——10-18
- 长篇小说藤萝疯长片段:浪漫美人10-13
- 被遗忘的非洲这里不只有部落武装10-13
- 2019最新签证大全护照正带我们去10-10
- 启程辽宁10名医疗专家 踏上援冈比10-15
- 加拿大还有这样的房子看到了设计10-19
- 对野鸡大学say bye2019年教育部认可10-15