針の糸を通す:人間のラベルのバリエーションを説明するための思考連鎖推論の再構築

針の糸を通す:人間のラベルのバリエーションを説明するための思考連鎖推論の再構築

なぜ重要か: 企業や社会への影響が見込まれ、一般メディアにも波及する可能性があります。

ソースを読む(export.arxiv.org)

arXiv:2505.23368v3 発表種別:差し替え

要約:推論調整済み大規模言語モデル(LLM)―最終回答の前に思考連鎖(CoTs)を生成する―の最近の台頭は大きな注目を集め、複数のアノテーターが同一データインスタンスにラベル付けを行う際の妥当な差異を指す、人間のラベルのバリエーションに関する新たな知見を得るための機会を提供している。先行研究では、LLMが生成した説明がモデル予測と人間のラベル分布の整合性を高めるのに役立つことが示されているが、通常は逆のパラダイムを採用している:与えられた回答に基づいて説明を生成する。これに対し、CoTsは回答を生成する前に、各回答オプションの根拠を暗黙的に含む可能性のある、順方向の推論経路を提供する。そこで本稿では、言語的に根拠のある談話セグメンターで強化された、新たなLLMベースのパイプラインを提案する。これにより、CoTsから各回答オプションに対する支持的および反対的記述を精度向上させて抽出する。また、ラベル分布の直接比較を重視する正確なスコアではなく、回答のランキングを優先するランクベースのHLV評価フレームワークを提案する。本手法は、3つのデータセットにおいて直接生成手法やベースラインを上回り、ランキング手法と人間の整合性が向上することを示し、本アプローチの有効性を強調している。

原文(英語)を表示

Title (EN): Threading the Needle: Reweaving Chain-of-Thought Reasoning to Explain Human Label Variation

arXiv:2505.23368v3 Announce Type: replace
Abstract: The recent rise of reasoning-tuned Large Language Models (LLMs)–which generate chains of thought (CoTs) before giving the final answer–has attracted significant attention and offers new opportunities for gaining insights into human label variation, which refers to plausible differences in how multiple annotators label the same data instance. Prior work has shown that LLM-generated explanations can help align model predictions with human label distributions, but typically adopt a reverse paradigm: producing explanations based on given answers. In contrast, CoTs provide a forward reasoning path that may implicitly embed rationales for each answer option, before generating the answers. We thus propose a novel LLM-based pipeline enriched with linguistically-grounded discourse segmenters to extract supporting and opposing statements for each answer option from CoTs with improved accuracy. We also propose a rank-based HLV evaluation framework that prioritizes the ranking of answers over exact scores, which instead favor direct comparison of label distributions. Our method outperforms a direct generation method as well as baselines on three datasets, and shows better alignment of ranking methods with humans, highlighting the effectiveness of our approach.

Published: 2025-09-24 19:00 UTC


コメントする