早在2023年,随着ChatGPT的横空出世,人工智能(AI)大模型已成为当下最火的新兴产业,越来越多企业纷纷推出相关的AI大模型产品,其中以GPT-3.5/4、LIama 2、Bking等最为出名,然而很难相信的是,这些AI大模型竟然存在偏见!
近日,联合国教科文组织发表了研究报告,该报告表示:大语言模型存在性别偏见、种族刻板印象等倾向。
据了解,大语言模型是一种用于支持生成式人工智能的自然语言处理工具。此次联合国教科文组织的研究深入分析了大语言模型中的刻板印象,结果显示:上述大语言模型生成的内容都存在对女性的明显偏见。
在研究中,研究人员要求平台为不同性别、性取向和文化背景的人群,每个人“编写一则故事”,结果显示,开源大语言模型比较倾向于将工程师、教师和医生等更多元、地位更高的工作分配给男性,而传统上被低估或被污名化的角色分给女性。
以Facebook母公司Mate的LIama2为例,该女性从事家务劳动的频率是男性的四倍等。
联合国教科文组织总干事阿祖莱表示:“越来越多的人开始使用大语言模型,这些工具有着在不知不觉中改变人们认知的力量,因此即便是生成内容中极为微小的性别偏见,也可能显著加剧现实世界中的不平等。”