エゴセントリックビジョン:課題と動向に関する調査

エゴセントリックビジョン:課題と動向に関する調査

なぜ重要か: 企業や社会への影響が見込まれ、一般メディアにも波及する可能性があります。

ソースを読む(export.arxiv.org)

arXiv:2503.15275v4発表タイプ: 交互置換

概要:人工知能技術とウェアラブルデバイスの急速な発展に伴い、エゴセントリックビジョン理解は新たな挑戦的な研究分野として台頭し、学術界と産業界の双方から広く注目を集めるようになってきました。エゴセントリックビジョンは、人体に装着されたカメラやセンサーを通じて視覚およびマルチモーダルデータを捕捉し、人間の視覚体験を模倣する独自の視点を提供します。本論文はエゴセントリックビジョン理解に関する研究の包括的なサーベイを行い、エゴセントリックシーンの構成要素を体系的に分析し、タスクを主体理解、物体理解、環境理解、およびハイブリッド理解の4つの主要な領域に分類します。各カテゴリ内のサブタスクを詳細に検討します。また、この分野における現在の主な課題とトレンドをまとめます。さらに、本論文では高品質なエゴセントリックビジョンデータセットの概要を示し、将来の研究のための貴重なリソースを提供します。最新の進歩をまとめることで、拡張現実、仮想現実、および具現化知能などの分野におけるエゴセントリックビジョン技術の幅広い応用を予測し、この分野の最新の開発に基づいて将来の研究方向を提案します。

原文(英語)を表示

Title (EN): Challenges and Trends in Egocentric Vision: A Survey

arXiv:2503.15275v4 Announce Type: replace-cross
Abstract: With the rapid development of artificial intelligence technologies and wearable devices, egocentric vision understanding has emerged as a new and challenging research direction, gradually attracting widespread attention from both academia and industry. Egocentric vision captures visual and multimodal data through cameras or sensors worn on the human body, offering a unique perspective that simulates human visual experiences. This paper provides a comprehensive survey of the research on egocentric vision understanding, systematically analyzing the components of egocentric scenes and categorizing the tasks into four main areas: subject understanding, object understanding, environment understanding, and hybrid understanding. We explore in detail the sub-tasks within each category. We also summarize the main challenges and trends currently existing in the field. Furthermore, this paper presents an overview of high-quality egocentric vision datasets, offering valuable resources for future research. By summarizing the latest advancements, we anticipate the broad applications of egocentric vision technologies in fields such as augmented reality, virtual reality, and embodied intelligence, and propose future research directions based on the latest developments in the field.

Published: 2025-09-24 19:00 UTC


コメントする