您的位置:首页 > 资讯 > 正文

这是真“学废了”!AI已经学会了性别歧视:重男轻女!--

2023-02-20 06:13:46   来源:快科技  阅读量:17353   

最近,ChatGPT的爆火又让AI的话题摆在了大家的面前。关于AI技术的现状和前景,不少科技圈大佬都发表了自己的看法。不过,看起来无所不能的AI,似乎已经在某些方面开始走弯路了。

据CNMO了解,根据模型测试,AI已经学会了性别歧视,而且还是很常见的重男轻女。

据媒体报道,清华大学交叉信息研究院助理教授于洋,曾在去年带领团队做了一个针对预测某种职业为何种性别的AI模型性别歧视水平评估项目。测试模型包含GPT-2,即ChatGPT的前身。结果显示,GPT-2有70.59%的概率将教师预测为男性,将医生预测为男性的概率则为64.03%。

不仅如此,在本项目中,团队测试的AI模型还使用了谷歌开发的bert和Facebook开发的roberta。让人意外的是,所有受测AI对于测试职业的性别预判,结果倾向都为男性。

于洋对此表示:它会重男轻女,爱白欺黑(即种族歧视)。类似的案例在2015年也有出现,当时Google Photos应用误把两名黑人标注为大猩猩,随后谷歌立即道歉,并表示将调整算法以修复问题。

CNMO了解到,早在2019年,联合国教科文组织便发表了一份题为《如果我能,我会脸红》的报告,指出当时大多数AI语音助手存在性别偏见。

综合来看,关于AI算法中含有性别、种族歧视的案例并不鲜见,但要消除这些偏见并非易事。就如微软纽约研究院的高级研究员Hanna Wallach此前所说:只要机器学习的程序是通过社会中已存在的数据进行训练的,那么只要这个社会还存在偏见,机器学习也就会重现这些偏见。

相关资讯
  • 死磕竞争对手ChatGPT!谷歌要求员工每天花2至4小时测试自家Bard AI
  • 车载ChatGPT即将诞生!集度CEO放话:一定超越特斯拉
  • 你怕失业吗?马斯克炮轰人工智能:比核弹头更危险
  • 10道恋爱送命题灵魂拷问ChatGPT:它的回答让我陷入沉思
  • 联想小新官宣接入百度“文心一言”:可在桌面一键直达
  • 支持打赏
  • 支持0人

  • 反对

  • 打赏

文章价值打分

快科技·1997-2023 版权所有

豫ICP备18024899号-2豫公网安备 41010502003949号

版权声明: 本网站部分文章和信息来源互联网,并不意味着赞同其观点或证实其内容的真实性,不构成投资建议。如转载稿涉及版权等问题,请立即联系管理员,我们会予以改正或删除相关文章,保证您的权利!
版权所有: 中国娱乐观察网 (2012- )  备案号:沪ICP备2022019539号-11