您当前的位置:首页 > 博客评论 > 博客评论焦点
纠正大模型性别偏差也是科技向善
时间:2024-06-04  来源:工人日报
  据《中国青年报》5月29日报道,近日有学者研究发现,不少大模型可能因为训练数据的性别偏见而产生对特定性别的刻板印象。比如,大模型画出的护士都是女性,给企业家画像则是男性。
  大模型是指拥有超大规模参数、超强计算资源的机器学习模型,能够处理海量数据,完成各种复杂任务,如自然语言处理、图像识别等。如果大模型存在偏见,不仅限制了模型的准确性,也可能在人机交互中加深性别歧视。比如,有学者之前在做AI编舞的时候,没有想到性别问题,采集的舞蹈视频基本都由女性进行表演,缺少男性样本,这给人的感觉是舞蹈演员只有女性。由此,不少学者开始反思大模型中的性别偏差问题,并引发学界关注。
  男女平等的理念在今天已经深入人心。但让人遗憾的是,作为前沿科技领域的大模型中却存在某些性别偏差问题。如果不改变这种现象,不仅容易加深某些人刻板的性别偏见,还可能耳濡目染误导一些人的性别观念。
  而大模型性别偏差的根源在于,大模型处理的各种数据、资料等均来源于现实社会,由于一段时间以来社会上存在性别偏见,大模型性别偏差实际就是社会上性别偏见的一种投射。加之,一些大模型研发者、数据训练者或AI使用者可能缺乏性别平等意识,导致大模型处理结果中出现性别偏差。
  作为广受关注、广泛使用的大模型及其产品,要在推动人类男女平等方面发挥示范作用,这也是科技向善的重要体现。对此,相关学者意识到问题所在,并探讨解决之道,都是纠正大模型性别偏差的积极表现。
  部分学者提出,应在社会层面呼吁、倡导打破性别刻板印象,纠正固有的性别偏见,减少对大模型的性别化影响。同时,大模型的研发者、数据训练者和AI使用者等关键环节的操作者,需要积极培养和提升自身的性别平等意识。有关部门也有必要在制定或完善针对大型语言模型和人工智能的相关法律法规时,特别加入保障性别平等的条款。各方共同推动人工智能向更加公平、包容的方向发展。  老鹰
编辑:马祎琳 责任编辑:李娟
权威发布
  •  自治区人民政府办公厅关于印发《
  •  自治区人民政府办公厅印发《关于
  •  自治区人民政府办公厅关于印发 金
  •  自治区人民政府办公厅关于印发 宁
  •  自治区人民政府办公厅关于印发 金
  • 便民信息
    精彩图片
    塞上江南 稻田如画
    塞上江南 稻田如画
    黄河两岸风光无限
    黄河两岸风光无限
    宁夏人物
  •  高贵武:做中国新闻传播学领域的
  •  农民作家单小花:我从寒冬来 暖人
  •  硝河马姐的“绣花功夫”
  •  吴英 二胡艺术的现代诠释者
  •  用音乐诠释自强人生
  • 宁夏财经网版权所有 宁ICP备2021002495号-1宁ICP备2021002495号-2
    地址:宁夏银川市中山南街宁夏报业集团商务信息大厦1202室 邮箱:nx_cjw@163.com 电话:0951—6072963