論文の概要: Operator learning without the adjoint
- arxiv url: http://arxiv.org/abs/2401.17739v2
- Date: Wed, 20 Nov 2024 10:38:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-21 16:10:53.412613
- Title: Operator learning without the adjoint
- Title(参考訳): 随伴者なしの演算子学習
- Authors: Nicolas Boullé, Diana Halikias, Samuel E. Otto, Alex Townsend,
- Abstract要約: 我々は、随伴を問うことなく、自己随伴でない無限次元コンパクト作用素の族を近似することができることを証明した。
我々は随伴のないサンプル複雑性を導出する。
- 参考スコア(独自算出の注目度): 9.062164411594177
- License:
- Abstract: There is a mystery at the heart of operator learning: how can one recover a non-self-adjoint operator from data without probing the adjoint? Current practical approaches suggest that one can accurately recover an operator while only using data generated by the forward action of the operator without access to the adjoint. However, naively, it seems essential to sample the action of the adjoint. In this paper, we partially explain this mystery by proving that without querying the adjoint, one can approximate a family of non-self-adjoint infinite-dimensional compact operators via projection onto a Fourier basis. We then apply the result to recovering Green's functions of elliptic partial differential operators and derive an adjoint-free sample complexity bound. While existing theory justifies low sample complexity in operator learning, ours is the first adjoint-free analysis that attempts to close the gap between theory and practice.
- Abstract(参考訳): 演算子学習の核心にはミステリーがある:非自己随伴演算子をデータから、随伴演算子を探さずに回収するにはどうすればよいのか?
現在の実践的なアプローチでは、オペレータのフォワードアクションによって生成されたデータのみを使用して、アジョイントにアクセスすることなく、オペレータを正確にリカバリできることが示唆されている。
しかし、内面的には、随伴体の作用をサンプリングすることが不可欠であると考えられる。
本稿では、このミステリーを、共役を問うことなく、フーリエ基底への射影を通じて自己共役な無限次元コンパクト作用素の族を近似できることを証明して部分的に説明する。
次に、楕円偏微分作用素のグリーン関数の回復に適用し、随伴のないサンプル複雑性境界を導出する。
既存の理論は、演算子学習におけるサンプルの複雑さを正当化するが、我々の理論は理論と実践の間のギャップを埋めようとする最初の随伴のない分析である。
関連論文リスト
- Training Nonlinear Transformers for Chain-of-Thought Inference: A Theoretical Generalization Analysis [82.51626700527837]
チェーン・オブ・シフト(Chain-of-shift, CoT)は、複数の中間ステップを持つ例を用いてクエリを増強することにより、大規模言語モデルの推論能力を実現する効率的な手法である。
CoT の理論的成功にもかかわらず、CoT が成立しても正確な一般化が得られないことを示す。
論文 参考訳(メタデータ) (2024-10-03T03:12:51Z) - Solving the Electrical Impedance Tomography Problem with a DeepONet Type Neural Network: Theory and Application [2.209921757303168]
本研究では,電気インピーダンストモグラフィーの非侵襲的医療画像モダリティについて考察する。
問題は、電流-電圧マップから生じる一連のデータから媒体の伝導性を回復することである。
演算子対関数写像を暗黙的に定義した演算子対関数写像の学習を目標とする演算子学習問題として,この逆問題を定式化する。
論文 参考訳(メタデータ) (2024-07-24T11:34:24Z) - Operator Learning of Lipschitz Operators: An Information-Theoretic Perspective [2.375038919274297]
この研究は、リプシッツ連続作用素の一般クラスに対する神経作用素近似の複雑さに対処する。
我々の主な貢献は、2つの近似設定におけるリプシッツ作用素の計量エントロピーの低い境界を確立することである。
使用したアクティベーション関数にかかわらず、近似精度が$epsilon$に達する神経オペレーターアーキテクチャは、$epsilon-1$で指数関数的に大きいサイズでなければならない。
論文 参考訳(メタデータ) (2024-06-26T23:36:46Z) - A note on the adjoint method for neural ordinary differential equation
network [0.0]
随伴作用素解析は、離散随伴が離散ニューラルODEと同一のスキームを持つならば、随伴形式がBPと同じ結果を与えることを示している。
論文 参考訳(メタデータ) (2024-02-23T06:55:34Z) - Unperturbation theory: reconstructing Lagrangians from instanton
fluctuations [0.0]
逆問題、すなわち、既知のグリーン関数を持つゆらぎ作用素からインスタントンを許容する理論の非線形作用の再構成を提案する。
より広いがより単純な形状不変作用素のクラスに対して、解析ポテンシャルの新しい無限族へと導くパラメータの集合を導出する。
論文 参考訳(メタデータ) (2024-02-11T11:22:22Z) - Provable General Function Class Representation Learning in Multitask
Bandits and MDPs [58.624124220900306]
マルチタスク表現学習は、サンプル効率を高めるために強化学習において一般的なアプローチである。
本研究では,解析結果を一般関数クラス表現に拡張する。
バンディットと線形MDPの一般関数クラスにおけるマルチタスク表現学習の利点を理論的に検証する。
論文 参考訳(メタデータ) (2022-05-31T11:36:42Z) - Learning Dynamical Systems via Koopman Operator Regression in
Reproducing Kernel Hilbert Spaces [52.35063796758121]
動的システムの有限データ軌跡からクープマン作用素を学ぶためのフレームワークを定式化する。
リスクとクープマン作用素のスペクトル分解の推定を関連付ける。
以上の結果から,RRRは他の広く用いられている推定値よりも有益である可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-27T14:57:48Z) - Reinforcement Learning from Partial Observation: Linear Function Approximation with Provable Sample Efficiency [111.83670279016599]
部分観察決定過程(POMDP)の無限観測および状態空間を用いた強化学習について検討した。
線形構造をもつPOMDPのクラスに対する部分可観測性と関数近似の最初の試みを行う。
論文 参考訳(メタデータ) (2022-04-20T21:15:38Z) - Forster Decomposition and Learning Halfspaces with Noise [60.691817861402676]
フォースター変換 (Forster transform) は、分布を優れた反集中特性を持つものに変換する演算である。
本稿では,Forster変換が存在し,効率よく計算できる少数の分布の解離混合として,任意の分布を効率的に分解可能であることを示す。
論文 参考訳(メタデータ) (2021-07-12T17:00:59Z) - Kernel-based approximation of the Koopman generator and Schr\"odinger
operator [0.3093890460224435]
補助行列固有値問題を解くことにより、固有関数をどのように推定するかを示す。
得られたアルゴリズムは分子動力学や量子化学の例に適用される。
論文 参考訳(メタデータ) (2020-05-27T08:23:29Z) - Invariant Feature Coding using Tensor Product Representation [75.62232699377877]
我々は,群不変特徴ベクトルが線形分類器を学習する際に十分な識別情報を含んでいることを証明した。
主成分分析やk平均クラスタリングにおいて,グループアクションを明示的に考慮する新たな特徴モデルを提案する。
論文 参考訳(メタデータ) (2019-06-05T07:15:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。