科学論文自動レビュー生成におけるLLMの長所と短所の解明
なぜ重要か: 企業や社会への影響が見込まれ、一般メディアにも波及する可能性があります。
arXiv:2509.19326v1発表論文種別:クロス
要約:科学論文投稿数の急増は、従来の査読プロセスに大きな負担をかけており、大規模言語モデル(LLM)による自動査読生成の探求を促しています。LLMは構造化され、首尾一貫したフィードバックの生成において能力を示していますが、批判的推論、文脈的根拠、品質への感度については依然として限界があります。これらの側面を体系的に評価するために、意味的類似度分析と構造化知識グラフメトリクスを統合した包括的な評価フレームワークを提案します。これは、複数年のICLRとNeurIPSから1,683本の論文と6,495件の専門家による査読レビューからなる大規模ベンチマークを構築し、5つのLLMを用いてレビューを生成することで行われます。その結果、LLMは記述的および肯定的な内容において良好な性能を示し、元の研究の主要な貢献と方法論を捉えています。GPT-4oを例にとると、ICLR 2025の優良論文の強みセクションにおいて、人間の査読者よりも15.74%多くのエンティティを生成しています。しかし、弱点の特定、本質的な問題提起、論文の質に基づいたフィードバックの調整においては、一貫して性能が劣っています。GPT-4oは、弱点において人間の査読者よりも59.42%少ないエンティティを生成し、優良論文から不良論文へのノード数の増加はわずか5.7%であるのに対し、人間のレビューでは50%となっています。同様の傾向は、すべての会議、年次、モデルで観察され、LLM生成レビューの長所と短所の理解、そして将来のLLM支援レビューツールの開発のための経験的基礎を提供しています。データ、コード、より詳細な結果は、https://github.com/RichardLRC/Peer-Reviewで公開されています。
原文(英語)を表示
Title (EN): Unveiling the Merits and Defects of LLMs in Automatic Review Generation for Scientific Papers
arXiv:2509.19326v1 Announce Type: cross
Abstract: The surge in scientific submissions has placed increasing strain on the traditional peer-review process, prompting the exploration of large language models (LLMs) for automated review generation. While LLMs demonstrate competence in producing structured and coherent feedback, their capacity for critical reasoning, contextual grounding, and quality sensitivity remains limited. To systematically evaluate these aspects, we propose a comprehensive evaluation framework that integrates semantic similarity analysis and structured knowledge graph metrics to assess LLM-generated reviews against human-written counterparts. We construct a large-scale benchmark of 1,683 papers and 6,495 expert reviews from ICLR and NeurIPS in multiple years, and generate reviews using five LLMs. Our findings show that LLMs perform well in descriptive and affirmational content, capturing the main contributions and methodologies of the original work, with GPT-4o highlighted as an illustrative example, generating 15.74% more entities than human reviewers in the strengths section of good papers in ICLR 2025. However, they consistently underperform in identifying weaknesses, raising substantive questions, and adjusting feedback based on paper quality. GPT-4o produces 59.42% fewer entities than real reviewers in the weaknesses and increases node count by only 5.7% from good to weak papers, compared to 50% in human reviews. Similar trends are observed across all conferences, years, and models, providing empirical foundations for understanding the merits and defects of LLM-generated reviews and informing the development of future LLM-assisted reviewing tools. Data, code, and more detailed results are publicly available at https://github.com/RichardLRC/Peer-Review.
Published: 2025-09-24 19:00 UTC