FedOne:ブラックボックス離散プロンプト学習のためのクエリ効率的な連合学習
なぜ重要か: 企業や社会への影響が見込まれ、一般メディアにも波及する可能性があります。
arXiv:2506.14929v2 発表種別:差し替え
要旨:Black-Box Discrete Prompt Learning (BDPL)は、モデルパラメータや勾配にアクセスすることなく離散的なプロンプトを最適化するプロンプトチューニング手法であり、クラウドベースの大規模言語モデル (LLM) 上でのプロンプトチューニングを可能にする。BDPLにフェデレーション学習を適用することで、多様なソースからのデータを利用し、プロンプトチューニングのパフォーマンスをさらに向上させることができる。しかしながら、これまでのフェデレーションブラックボックスプロンプトチューニングに関する研究は、クラウドベースのLLMサービスに伴う大幅なクエリコストを無視してきた。この点を解決するため、フェデレーションブラックボックスプロンプトチューニングにおけるクエリ効率に関する理論的分析を行った。その結果、FedAvgを改変し、各ラウンドで1つのクライアントのみをアクティブにする戦略(FedOneと呼ぶ)が、フェデレーションブラックボックスプロンプト学習において最適なクエリ効率を実現することを明らかにした。この知見に基づき、クラウドベースのLLMとのインタラクションにおけるクエリ効率を最大化するように設計された、フェデレーションブラックボックス離散プロンプト学習手法であるFedOneフレームワークを提案した。我々は、このフレームワークの様々な側面について数値実験を行い、理論結果と一致する、クエリ効率の著しい改善を示した。
原文(英語)を表示
Title (EN): FedOne: Query-Efficient Federated Learning for Black-box Discrete Prompt Learning
arXiv:2506.14929v2 Announce Type: replace
Abstract: Black-Box Discrete Prompt Learning is a prompt-tuning method that optimizes discrete prompts without accessing model parameters or gradients, making the prompt tuning on a cloud-based Large Language Model (LLM) feasible. Adapting federated learning to BDPL could further enhance prompt tuning performance by leveraging data from diverse sources. However, all previous research on federated black-box prompt tuning had neglected the substantial query cost associated with the cloud-based LLM service. To address this gap, we conducted a theoretical analysis of query efficiency within the context of federated black-box prompt tuning. Our findings revealed that degrading FedAvg to activate only one client per round, a strategy we called \textit{FedOne}, enabled optimal query efficiency in federated black-box prompt learning. Building on this insight, we proposed the FedOne framework, a federated black-box discrete prompt learning method designed to maximize query efficiency when interacting with cloud-based LLMs. We conducted numerical experiments on various aspects of our framework, demonstrating a significant improvement in query efficiency, which aligns with our theoretical results.
Published: 2025-09-24 19:00 UTC