フェデレーション学習における貢献度計算の脆弱性について

フェデレーション学習における貢献度計算の脆弱性について

なぜ重要か: 企業や社会への影響が見込まれ、一般メディアにも波及する可能性があります。

ソースを読む(export.arxiv.org)

arXiv:2509.19921v1 発表種別:新規

要旨:本論文は、公平性を確保し参加を促進する上で重要なメカニズムである、連合学習における貢献評価の脆弱性を調査する。我々は、貢献スコアが、アーキテクチャ依存性と意図的な操作という二つの根本的な観点から、著しい歪みを受けやすいと主張する。まず、様々なモデル集約方法がこれらのスコアにどのように影響するかを検討する。多くの研究は基本的な平均化アプローチを前提としているが、我々は、信頼性のないクライアントや多様なクライアントを扱うために設計された高度な手法が、意図せずとも最終的なスコアを著しく変化させる可能性を示す。次に、悪意のある参加者が自分のモデル更新を戦略的に操作して、自分の貢献スコアを膨らませたり、他の参加者の重要性を低下させたりする、ポイズニング攻撃による脆弱性を検討する。Flowerフレームワーク内で実装された、多様なデータセットとモデルアーキテクチャにわたる広範な実験を通じて、集約方法の選択と攻撃者の存在の両方が、貢献スコアを歪める強力な要因であることを厳密に示し、より堅牢な評価スキームの必要性を強調する。

原文(英語)を表示

Title (EN): On the Fragility of Contribution Score Computation in Federated Learning

arXiv:2509.19921v1 Announce Type: new
Abstract: This paper investigates the fragility of contribution evaluation in federated learning, a critical mechanism for ensuring fairness and incentivizing participation. We argue that contribution scores are susceptible to significant distortions from two fundamental perspectives: architectural sensitivity and intentional manipulation. First, we explore how different model aggregation methods impact these scores. While most research assumes a basic averaging approach, we demonstrate that advanced techniques, including those designed to handle unreliable or diverse clients, can unintentionally yet significantly alter the final scores. Second, we explore vulnerabilities posed by poisoning attacks, where malicious participants strategically manipulate their model updates to inflate their own contribution scores or reduce the importance of other participants. Through extensive experiments across diverse datasets and model architectures, implemented within the Flower framework, we rigorously show that both the choice of aggregation method and the presence of attackers are potent vectors for distorting contribution scores, highlighting a critical need for more robust evaluation schemes.

Published: 2025-09-24 19:00 UTC


コメントする