WAIC2024|联合国大学黄京波:AI很“男”
来源:证券之星 时间:2024-07-06 06:07 编辑:笑笑 阅读量:13638
7月4日,世界人工智能大会举办了一场特别的分论坛mdash;mdash;以lsquo;人工智能+rsquo;行动middot;女性新作为为主题的AI女性菁英论坛。这场论坛的主办方是上海妇女联合会、上海总工会、上海经济信息化委、徐汇区政府等。现场近2000名观众中,约九成是女性。
联合国大学澳门研究所所长黄京波作了题为《人工智能时代下的新女性和可持续发展》的演讲,聚焦AI时代的性别数字鸿沟和文化偏见等问题。
黄京波列举了多项数据,说明当前社会仍然存在显著的性别数字鸿沟:全球范围内,仍有三分之一的人处于离线状态。70%的男性使用互联网,而女性只有65%。2023年网络在线人数中,男性比女性多2.44亿人。
在女性领导力方面,女性占全球就业人数的40%,但截至2022年,女性只占据了27.5%的管理职位,与2016年的比例基本相同。如果以目前的变化速度前进,女性还需要经过176年才能占据全球管理职位的一半。
黄京波所供职的联合国大学曾做过相关研究,发现女性在接触数字技术、发展信息通信技能和承担科技行业领导角色等方面,面临一些障碍。这些障碍包括基础设施不足、财务限制、安全关切和社会文化偏见等。
而当AI热潮逐渐影响人们的工作和生活时,人工智能中的性别偏见也引起了黄京波等学者的关注。加州大学伯克利分校的一项研究分析了美国不同行业的133个AI系统,其中44%的系统存在性别偏见。例如,用生成式AI工具写一个关于医生和护士的故事,AI自动决定医生是男性,而护士是女性。
黄京波指出,人工智能中的性别偏见可能来自有偏见的数据,但这些数据反映了我们所生活的社会。
联合国大学澳门研究所和国际电信联盟还调查了泰国、马来西亚、印度尼西亚和菲律宾在人工智能领域中涉及性别偏见的差距和机会,并建议制定针对性别敏感的政策。例如,在菲律宾,女性占技术毕业生的比例不到30%,与男性同行相比面临巨大的工资差距。
除了性别偏见,黄京波还发现,当前的人工智能系统可能对女性安全构成风险,特别是网络欺凌和骚扰、错误信息和隐私安全等。
实际上,不少学者已关注到人工智能领域中的性别偏见问题及其潜在影响。如果大模型在训练过程中吸收了带有性别偏见的数据或方法,这些偏见很可能反映在其输出决策中,威胁着技术的公正性和准确性。
这些性别偏见不仅可能导致机会分配不平等,还可能在日常人机互动中加深性别刻板印象,长期累积还可能引发蝴蝶效应,加剧性别不平等,对整个社会结构和文化认知产生更深远的影响。
在演讲最后,黄京波说,自己的愿望是有一天所有女性都能摆脱枷锁,无论是数字的,还是社会的。
郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。