同一性は交換可能ではない:公正な機械学習における過剰一般化の問題
なぜ重要か: 企業や社会への影響が見込まれ、一般メディアにも波及する可能性があります。
arXiv:2505.04038v2 発表種別:差し替え
要旨:機械学習の重要な価値提案の一つは汎化可能性、すなわち同一の方法とモデルアーキテクチャが異なるドメインやコンテキストで機能することである。強力な一方で、この汎化可能性は行き過ぎることがあり、特異性の重要性を欠くことがある。本研究では、公平な機械学習において、差別が発生する同一性軸がしばしば交換可能に扱われてきた点を考察する。言い換えれば、人種差別、性差別、差別、年齢差別は同じ方法で測定され、軽減されている。コンピュータサイエンス以外の分野では、これらの異なる形態の抑圧における類似点と相違点の両方が指摘されており、本研究では、公平な機械学習への影響を明らかにする。公平な機械学習のあらゆる側面を特定の抑圧形態に合わせて調整する必要はないが、現状よりも特異性へのより大きな注意が必要である。最終的に、文脈の特異性は、より公平なシステムを構築する方法に関する理解を深め、現在見過ごされている被害範囲を広げ、そして、ほとんど逆説的であるが、分析のグループ固有の方法の無限数を恐れることを抑制するのに役立つ。
原文(英語)を表示
Title (EN): Identities are not Interchangeable: The Problem of Overgeneralization in Fair Machine Learning
arXiv:2505.04038v2 Announce Type: replace-cross
Abstract: A key value proposition of machine learning is generalizability: the same methods and model architecture should be able to work across different domains and different contexts. While powerful, this generalization can sometimes go too far, and miss the importance of the specifics. In this work, we look at how fair machine learning has often treated as interchangeable the identity axis along which discrimination occurs. In other words, racism is measured and mitigated the same way as sexism, as ableism, as ageism. Disciplines outside of computer science have pointed out both the similarities and differences between these different forms of oppression, and in this work we draw out the implications for fair machine learning. While certainly not all aspects of fair machine learning need to be tailored to the specific form of oppression, there is a pressing need for greater attention to such specificity than is currently evident. Ultimately, context specificity can deepen our understanding of how to build more fair systems, widen our scope to include currently overlooked harms, and, almost paradoxically, also help to narrow our scope and counter the fear of an infinite number of group-specific methods of analysis.
Published: 2025-09-24 19:00 UTC