RadialRouter:効率的で堅牢な大規模言語モデルルーティングのための構造化表現
なぜ重要か: 企業や社会への影響が見込まれ、一般メディアにも波及する可能性があります。
arXiv:2506.03880v2発表タイプ: replace-cross
概要:大規模言語モデル(LLM)の急速な発展により、様々な候補から最適なLLMを特定のタスクに効率的に選択し、パフォーマンスを最適化しつつコストを削減することを目的としたルーティング技術が登場しました。現在のLLMルーティング方法は、ユーザークエリとLLMの特性間の内在的な関係の探求が不十分であるため、有効性に限界があります。この問題に対処するため、本論文では、クエリ-LLM関係を明確にするRadialFormerと呼ばれる放射状構造を持つ軽量Transformerベースのバックボーンを用いた、LLMルーティングのための新しいフレームワークであるRadialRouterを提案します。最適なLLMの選択は、RadialFormerの最終状態に基づいて行われます。さらに、ロバスト性を向上させるために、Kullback-Leiblerダイバージェンスとクエリ-クエリコントラスティブロスを組み合わせた目的関数を用いてパイプラインを改良しました。RouterBenchにおける実験結果から、RadialRouterは、BalanceシナリオとCost Firstシナリオにおいて、既存のルーティング手法をそれぞれ9.2%と5.8%上回ることを示しました。さらに、異なるパフォーマンスコストトレードオフや動的なLLMプールへの適応性から、実用的な応用可能性が示唆されます。
原文(英語)を表示
Title (EN): RadialRouter: Structured Representation for Efficient and Robust Large Language Models Routing
arXiv:2506.03880v2 Announce Type: replace-cross
Abstract: The rapid advancements in large language models (LLMs) have led to the emergence of routing techniques, which aim to efficiently select the optimal LLM from diverse candidates to tackle specific tasks, optimizing performance while reducing costs. Current LLM routing methods are limited in effectiveness due to insufficient exploration of the intrinsic connection between user queries and the characteristics of LLMs. To address this issue, in this paper, we present RadialRouter, a novel framework for LLM routing which employs a lightweight Transformer-based backbone with a radial structure named RadialFormer to articulate the query-LLMs relationship. The optimal LLM selection is performed based on the final states of RadialFormer. The pipeline is further refined by an objective function that combines Kullback-Leibler divergence with the query-query contrastive loss to enhance robustness. Experimental results on RouterBench show that RadialRouter significantly outperforms existing routing methods by 9.2\% and 5.8\% in the Balance and Cost First scenarios, respectively. Additionally, its adaptability toward different performance-cost trade-offs and the dynamic LLM pool demonstrates practical application potential.
Published: 2025-09-24 19:00 UTC