LLMが性的少数者およびジェンダーマイノリティのステレオタイプを再現
なぜ重要か: 企業や社会への影響が見込まれ、一般メディアにも波及する可能性があります。
arXiv:2501.05926v3 発表種別:差し替え
要旨:数多くの研究が、自然言語処理(NLP)システムにおける著しいジェンダーバイアスを発見している。これらの研究の大部分は、ジェンダーを二元論的で本質主義的な視点で捉え、そのバリエーションを男性と女性のカテゴリーに限定し、ジェンダーとセックスを混同し、異なる性的アイデンティティを無視している。しかし、ジェンダーとセクシュアリティはスペクトル上に存在するため、本論文では、二元的なカテゴリーを超えた性的少数者およびジェンダーマイノリティに対する大規模言語モデル(LLM)のバイアスを調査する。広く用いられている社会心理学モデルであるステレオタイプ内容モデルに基づき、社会的な認識に関する英語の調査質問が、人間とLLMの両方から性的少数者およびジェンダーマイノリティに対するより否定的ステレオタイプを引き出すことを示す。次に、この枠組みをより現実的なユースケースであるテキスト生成に拡張する。分析の結果、LLMはこの設定において性的少数者およびジェンダーマイノリティのステレオタイプ的な表現を生成し、広く宣伝されているLLMの用途である創作において、表現上の害を増幅することを示している。
原文(英語)を表示
Title (EN): LLMs Reproduce Stereotypes of Sexual and Gender Minorities
arXiv:2501.05926v3 Announce Type: replace
Abstract: A large body of research has found substantial gender bias in NLP systems. Most of this research takes a binary, essentialist view of gender: limiting its variation to the categories _men_ and _women_, conflating gender with sex, and ignoring different sexual identities. But gender and sexuality exist on a spectrum, so in this paper we study the biases of large language models (LLMs) towards sexual and gender minorities beyond binary categories. Grounding our study in a widely used social psychology model — the Stereotype Content Model — we demonstrate that English-language survey questions about social perceptions elicit more negative stereotypes of sexual and gender minorities from both humans and LLMs. We then extend this framework to a more realistic use case: text generation. Our analysis shows that LLMs generate stereotyped representations of sexual and gender minorities in this setting, showing that they amplify representational harms in creative writing, a widely advertised use for LLMs.
Published: 2025-09-24 19:00 UTC