ネットワークの深さとは?転移作用素の深層学習対浅層学習

ネットワークの深さとは?転移作用素の深層学習対浅層学習

なぜ重要か: 企業や社会への影響が見込まれ、一般メディアにも波及する可能性があります。

ソースを読む(export.arxiv.org)

arXiv:2509.19930v1発表。新規。

概要:本稿では、データから転送作用素とそのスペクトル分解を学習するための、RaNNDyと呼ばれるランダム化ニューラルネットワーク手法を提案する。ニューラルネットワークの隠れ層の重みはランダムに選択され、出力層のみが学習される。主な利点は、精度の大幅な低下なしに、このアプローチが学習時間とリソースを大幅に削減し、ハイパーパラメータへの依存性や収束の遅さといった深層学習に関連する一般的な問題を回避することである。さらに、提案されたフレームワークにより、作用素の固有関数を直接表す出力層の閉じた解を計算することができる。また、アンサンブル学習を用いて、計算されたスペクトル特性に関連する不確実性を推定することが可能である。複雑な力学系の挙動の解析において重要な応用を持つKoopman作用素やPerron-Frobenius作用素、ならびにSchrödinger作用素を含む様々な力学作用素に関する結果を示す。提案されたフレームワークの長所と短所を浮き彫りにする数値例には、いくつかの確率力学系、タンパク質フォールディングプロセス、および量子調和振動子が含まれる。

原文(英語)を表示

Title (EN): How deep is your network? Deep vs. shallow learning of transfer operators

arXiv:2509.19930v1 Announce Type: new
Abstract: We propose a randomized neural network approach called RaNNDy for learning transfer operators and their spectral decompositions from data. The weights of the hidden layers of the neural network are randomly selected and only the output layer is trained. The main advantage is that without a noticeable reduction in accuracy, this approach significantly reduces the training time and resources while avoiding common problems associated with deep learning such as sensitivity to hyperparameters and slow convergence. Additionally, the proposed framework allows us to compute a closed-form solution for the output layer which directly represents the eigenfunctions of the operator. Moreover, it is possible to estimate uncertainties associated with the computed spectral properties via ensemble learning. We present results for different dynamical operators, including Koopman and Perron-Frobenius operators, which have important applications in analyzing the behavior of complex dynamical systems, and the Schr\”odinger operator. The numerical examples, which highlight the strengths but also weaknesses of the proposed framework, include several stochastic dynamical systems, protein folding processes, and the quantum harmonic oscillator.

Published: 2025-09-24 19:00 UTC


コメントする