マルチセルエッジネットワークにおける協調マルチポイントブロードキャスティングを用いた、ファイングレインAIモデルのキャッシングとダウンロード

マルチセルエッジネットワークにおける協調マルチポイントブロードキャスティングを用いた、ファイングレインAIモデルのキャッシングとダウンロード

なぜ重要か: 企業や社会への影響が見込まれ、一般メディアにも波及する可能性があります。

ソースを読む(export.arxiv.org)

arXiv:2509.19341v1発表タイプ:クロス

概要:6Gネットワークは、エンドユーザーの多様な推論要件に対応するため、オンデマンドでのAIモデルダウンロードをサポートすると考えられています。エッジノードにモデルを事前にキャッシュすることで、ユーザーはオンデバイスAI推論のために低遅延で要求されたモデルを取得できます。しかし、現代のAIモデルの大きなサイズは、限られたストレージ容量下でのエッジキャッシング、および無線チャネルを介した異種モデルの同時配信に大きな課題をもたらします。これらの課題に対処するため、凍結されたパラメータを持つ共有事前学習済みモデルからタスク固有のモデルを微調整するという一般的な手法に由来する、パラメータの再利用性を活用する、きめ細やかなAIモデルキャッシングおよびダウンロードシステムを提案します。このシステムは、エッジノードでモデルパラメータブロック(PB)を選択的にキャッシュし、異なるキャッシュされたモデル間での再利用可能なパラメータの冗長なストレージを排除します。さらに、協調マルチポイント(CoMP)ブロードキャスティングを組み込むことで、複数のユーザーに再利用可能なPBを同時に配信し、ダウンリンクスペクトル利用率を向上させます。この配置の下で、PBキャッシング、移行(エッジノード間)、ブロードキャスティングビームフォーミングを共同で最適化するモデルダウンロード遅延最小化問題を定式化します。この扱いにくい問題に対処するために、エッジノードがその行動間の相互影響を明示的に学習し、協調を促進する分散型マルチエージェント学習フレームワークを開発します。さらに、予測モデルを通じて合成トレーニングサンプルを適応的に生成するデータ拡張アプローチを提案し、サンプル効率を高め、ポリシー学習を加速します。理論的分析とシミュレーション実験の両方によって、提案された学習フレームワークの優れた収束性能が検証されています。

原文(英語)を表示

Title (EN): Fine-Grained AI Model Caching and Downloading With Coordinated Multipoint Broadcasting in Multi-Cell Edge Networks

arXiv:2509.19341v1 Announce Type: cross
Abstract: 6G networks are envisioned to support on-demand AI model downloading to accommodate diverse inference requirements of end users. By proactively caching models at edge nodes, users can retrieve the requested models with low latency for on-device AI inference. However, the substantial size of contemporary AI models poses significant challenges for edge caching under limited storage capacity, as well as for the concurrent delivery of heterogeneous models over wireless channels. To address these challenges, we propose a fine-grained AI model caching and downloading system that exploits parameter reusability, stemming from the common practice of fine-tuning task-specific models from a shared pre-trained model with frozen parameters. This system selectively caches model parameter blocks (PBs) at edge nodes, eliminating redundant storage of reusable parameters across different cached models. Additionally, it incorporates coordinated multipoint (CoMP) broadcasting to simultaneously deliver reusable PBs to multiple users, thereby enhancing downlink spectrum utilization. Under this arrangement, we formulate a model downloading delay minimization problem to jointly optimize PB caching, migration (among edge nodes), and broadcasting beamforming. To tackle this intractable problem, we develop a distributed multi-agent learning framework that enables edge nodes to explicitly learn mutual influence among their actions, thereby facilitating cooperation. Furthermore, a data augmentation approach is proposed to adaptively generate synthetic training samples through a predictive model, boosting sample efficiency and accelerating policy learning. Both theoretical analysis and simulation experiments validate the superior convergence performance of the proposed learning framework.

Published: 2025-09-24 19:00 UTC


コメントする