Solidity向け検証オラクルとしてのLLM
なぜ重要か: 企業や社会への影響が見込まれ、一般メディアにも波及する可能性があります。
arXiv:2509.19153v1発表タイプ:クロス
要旨:スマートコントラクトの正確性を確保することは極めて重要であり、些細な欠陥でも深刻な財政的損失につながる可能性がある。一般的な脆弱性パターンを検出できるバグ検出ツールは第一防衛線として機能するものの、現実世界の多くの悪用と損失はコントラクトのビジネスロジックのエラーに起因する。SolCMCやCertora Proverなどの形式検証ツールは、この課題に対処するが、その影響は急峻な学習曲線と制限された仕様言語によって限定されている。最近の研究では、脆弱性検出やテスト生成などのセキュリティ関連タスクに大規模言語モデル(LLM)を使用することが検討され始めている。しかし、根本的な疑問として、LLMが任意の契約固有のプロパティに関する推論を行うことができる検証オラクルとして機能できるかどうかという点が未解明である。本論文では、最先端の推論LLMであるGPT-5をこの役割において初めて体系的に評価する。検証タスクの大規模データセットでその性能をベンチマークし、確立された形式検証ツールの出力と比較し、現実世界の監査シナリオにおける実用的な有効性を評価する。本研究は定量的指標と定性的分析を組み合わせ、最近の推論指向LLMは検証オラクルとして驚くほど効果的である可能性を示唆しており、安全なスマートコントラクト開発と監査のためのAIと形式手法の融合における新たなフロンティアを示唆している。
原文(英語)を表示
Title (EN): LLMs as verification oracles for Solidity
arXiv:2509.19153v1 Announce Type: cross
Abstract: Ensuring the correctness of smart contracts is critical, as even subtle flaws can lead to severe financial losses. While bug detection tools able to spot common vulnerability patterns can serve as a first line of defense, most real-world exploits and losses stem from errors in the contract business logic. Formal verification tools such as SolCMC and the Certora Prover address this challenge, but their impact remains limited by steep learning curves and restricted specification languages. Recent works have begun to explore the use of large language models (LLMs) for security-related tasks such as vulnerability detection and test generation. Yet, a fundamental question remains open: can LLMs serve as verification oracles, capable of reasoning about arbitrary contract-specific properties? In this paper, we provide the first systematic evaluation of GPT-5, a state-of-the-art reasoning LLM, in this role. We benchmark its performance on a large dataset of verification tasks, compare its outputs against those of established formal verification tools, and assess its practical effectiveness in real-world auditing scenarios. Our study combines quantitative metrics with qualitative analysis, and shows that recent reasoning-oriented LLMs can be surprisingly effective as verification oracles, suggesting a new frontier in the convergence of AI and formal methods for secure smart contract development and auditing.
Published: 2025-09-24 19:00 UTC