解釈可能なサルコペニア診断のためのクロスモーダル・エイジェンティック知識蒸留フレームワーク CANDLE
なぜ重要か: 企業や社会への影響が見込まれ、一般メディアにも波及する可能性があります。
arXiv:2507.21179v2 発表種別: replace-cross
概要:背景と目的:大規模言語モデル(LLM)は、膨大なテキストとウェブデータからの学習により、優れた汎化能力と転移能力を示しています。その意味表現は、クロス・タスク知識転移と推論を可能にし、サルコペニア診断のようなデータが不足し、異種性の高い臨床医学分野に有望な機会を提供します。しかし、解釈性、透明性、展開効率に関して大きな課題が残っています。従来の機械学習(TML)モデルは安定した性能と特徴レベルの属性を提供し、追跡可能で監査可能な意思決定ロジックを保証しますが、意味的な広がりには欠けています。逆に、LLMは柔軟な推論を可能にしますが、多くの場合、不透明な予測器として機能します。既存の統合戦略は浅く、TMLの構造化された推論をLLM推論に埋め込むことはほとんどありません。方法:サルコペニア診断をケーススタディとして使用し、ベースラインのXGBoostモデルからSHapley Additive exPlanations(SHAP)を抽出し、構造化されたLLM互換表現に変換しました。アクター・クリティック強化学習(RL)戦略により、LLMがこれらのSHAPベースの入力について推論し、較正された根拠と洗練された意思決定ルールを生成しました。蒸留された推論は構造化された知識リポジトリに統合され、ケースベース推論のためにRetrieval-Augmented Generation(RAG)を介して展開されました。結果:(省略)結論:SHAP由来の統計的証拠と強化学習で訓練されたLLM推論を組み合わせることで、CANDLEは解釈性と性能のトレードオフを軽減し、予測精度を高め、高い意思決定の一貫性を維持します。このフレームワークは、TMLモデルの知識資産化へのスケーラブルなアプローチを提供し、サルコペニアおよび潜在的により広範な医療分野における解釈可能で再現可能かつ臨床的に整合した意思決定支援を実現します。
原文(英語)を表示
Title (EN): CANDLE: A Cross-Modal Agentic Knowledge Distillation Framework for Interpretable Sarcopenia Diagnosis
arXiv:2507.21179v2 Announce Type: replace-cross
Abstract: Background and Aims: Large language models (LLMs) have shown remarkable generalization and transfer capabilities by learning from vast corpora of text and web data. Their semantic representations allow cross-task knowledge transfer and reasoning, offering promising opportunities for data-scarce and heterogeneous domains such as clinical medicine. Yet, in diagnostic tasks like sarcopenia, major challenges remain: interpretability, transparency, and deployment efficiency. Traditional machine learning (TML) models provide stable performance and feature-level attribution, ensuring traceable and auditable decision logic, but lack semantic breadth. Conversely, LLMs enable flexible inference but often function as opaque predictors. Existing integration strategies remain shallow, rarely embedding the structured reasoning of TML into LLM inference. Methods: Using sarcopenia diagnosis as a case study, SHapley Additive exPlanations (SHAP) were extracted from a baseline XGBoost model and transformed into structured, LLM-compatible representations. An actor-critic reinforcement learning (RL) strategy guided the LLM to reason over these SHAP-based inputs, producing calibrated rationales and refined decision rules. The distilled reasoning was consolidated into a structured knowledge repository and deployed via retrieval-augmented generation (RAG) for case-based inference. Results: (Omitted here.) Conclusion: By coupling SHAP-derived statistical evidence with reinforcement-trained LLM reasoning, CANDLE mitigates the interpretability-performance trade-off, enhances predictive accuracy, and preserves high decision consistency. The framework offers a scalable approach to knowledge assetization of TML models, enabling interpretable, reproducible, and clinically aligned decision support in sarcopenia and potentially broader medical domains.
Published: 2025-09-24 19:00 UTC