論文の概要: Online Infinite-Dimensional Regression: Learning Linear Operators
- arxiv url: http://arxiv.org/abs/2309.06548v2
- Date: Thu, 21 Sep 2023 21:45:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-25 17:42:03.257553
- Title: Online Infinite-Dimensional Regression: Learning Linear Operators
- Title(参考訳): オンライン無限次元回帰:学習線形作用素
- Authors: Vinod Raman, Unique Subedi, Ambuj Tewari
- Abstract要約: オンライン環境における2つの無限次元ヒルベルト空間間の二乗損失下での線形作用素の学習問題を考察する。
一様有界な$p$-Schattenノルムを持つ線型作用素のクラスは、[1, infty)$の任意の$pに対してオンライン学習可能であることを示す。
- 参考スコア(独自算出の注目度): 20.291598040396302
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the problem of learning linear operators under squared loss
between two infinite-dimensional Hilbert spaces in the online setting. We show
that the class of linear operators with uniformly bounded $p$-Schatten norm is
online learnable for any $p \in [1, \infty)$. On the other hand, we prove an
impossibility result by showing that the class of uniformly bounded linear
operators with respect to the operator norm is \textit{not} online learnable.
Moreover, we show a separation between online uniform convergence and online
learnability by identifying a class of bounded linear operators that is online
learnable but uniform convergence does not hold. Finally, we prove that the
impossibility result and the separation between uniform convergence and
learnability also hold in the agnostic PAC setting.
- Abstract(参考訳): オンライン環境における2つの無限次元ヒルベルト空間間の二乗損失下での線形作用素の学習問題を考察する。
一様有界な$p$-schattenノルムを持つ線型作用素のクラスは、任意の$p \in [1, \infty)$に対してオンライン学習可能である。
一方、作用素ノルムに関する一様有界線型作用素のクラスがオンライン学習可能であることを示すことによって、不可能な結果が証明される。
さらに,オンライン学習可能だが一様収束が成立しない有界線形作用素のクラスを識別することにより,オンライン一様収束とオンライン学習可能性の分離を示す。
最後に,不合理な結果と一様収束と学習可能性の分離が,無知のPAC設定にも有効であることを示す。
関連論文リスト
- Error Correction Capabilities of Non-Linear Cryptographic Hash Functions [56.368766255147555]
線形ハッシュは誤り訂正能力を有することが知られている。
ほとんどのアプリケーションでは、擬似ランダム出力を持つ非線形ハッシュが代わりに使用される。
また,非線形ハッシュは誤り訂正能力に優れる可能性が示唆された。
論文 参考訳(メタデータ) (2024-05-02T17:26:56Z) - Graph2Tac: Online Representation Learning of Formal Math Concepts [0.6597195879147557]
証明において、2つの形式的な数学的概念の間の物理的近接は、それらの相互関係の強い予測因子である。
この局所性特性はオンライン学習技術によって利用でき、オフライン学習者を超えている問題解決エージェントが得られることを示す。
我々は、Coq証明アシスタントのためにTacticianプラットフォームで実装された2つのオンライン解決器をベンチマークした。
論文 参考訳(メタデータ) (2024-01-05T18:52:09Z) - Understanding Probe Behaviors through Variational Bounds of Mutual
Information [53.520525292756005]
情報理論を利用した新しい数学的枠組みを構築することで線形探索のガイドラインを提供する。
まず、プローブ設計を緩和するために、相互情報の変動境界(MI)と探索を結合し、線形探索と微調整を同一視する。
中間表現は、分離性の向上とMIの減少のトレードオフのため、最大のMI推定値を持つことが示される。
論文 参考訳(メタデータ) (2023-12-15T18:38:18Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - A Combinatorial Characterization of Supervised Online Learnability [20.291598040396302]
本稿では,任意だが有界な損失関数に対する仮説クラスのオンライン学習可能性について検討する。
連続最小次元と呼ばれる新しいスケール感性次元を与え、オンライン学習可能性の厳密な定量的評価を与えることを示す。
論文 参考訳(メタデータ) (2023-07-07T20:11:07Z) - Efficiently Computing Local Lipschitz Constants of Neural Networks via
Bound Propagation [79.13041340708395]
リプシッツ定数は、堅牢性、公正性、一般化など、ニューラルネットワークの多くの性質と結びついている。
既存のリプシッツ定数の計算法は、相対的に緩い上界を生成するか、小さなネットワークに制限される。
ニューラルネットワークの局所リプシッツ定数$ell_infty$をクラーク・ヤコビアンのノルムを強く上向きに上向きに計算する効率的なフレームワークを開発する。
論文 参考訳(メタデータ) (2022-10-13T22:23:22Z) - Supervised learning of sheared distributions using linearized optimal
transport [64.53761005509386]
本稿では,確率測度空間における教師付き学習課題について検討する。
最適輸送フレームワークを用いて確率測度の空間を$L2$空間に埋め込むことでこの問題に対処する。
正規の機械学習技術は線形分離性を達成するために使われる。
論文 参考訳(メタデータ) (2022-01-25T19:19:59Z) - Offline Reinforcement Learning: Fundamental Barriers for Value Function
Approximation [74.3002974673248]
本稿では,ログデータから意思決定方針を学習することを目的としたオフライン強化学習問題を考察する。
オンラインデータ収集は安全クリティカルなドメインに適しているため、オフラインのRLは現実的にますます重要になっている。
以上の結果から, サンプル効率の良いオフライン強化学習には, 制限的カバレッジ条件か, あるいは複雑性学習を超える表現条件が必要であることが示唆された。
論文 参考訳(メタデータ) (2021-11-21T23:22:37Z) - Learning the Koopman Eigendecomposition: A Diffeomorphic Approach [7.309026600178573]
コープマン固有関数を用いた安定非線形系の線形表現を学習するための新しいデータ駆動手法を提案する。
我々の知る限りでは、これは演算子、システム、学習理論の間のギャップを埋める最初の試みである。
論文 参考訳(メタデータ) (2021-10-15T00:47:21Z) - A Computational Separation between Private Learning and Online Learning [19.001036556917818]
概念クラスは、オンライン学習可能であれば、かつ、オンライン学習可能であれば、プライベートに学習可能である。
この等価性は、サンプルと計算効率の両方に大きな損失をもたらす。
単方向関数の存在を前提として、そのような効率的な変換は、サンプル複雑性を持つ純粋にプライベートな学習者にとって不可能であることを示す。
論文 参考訳(メタデータ) (2020-07-11T02:41:54Z) - On the Equivalence between Online and Private Learnability beyond Binary
Classification [26.400891660337777]
プライベートな学習性は、両方の設定においてオンライン学習性を意味することを示す。
オンライン学習が多クラス分類において個人的学習可能性を示す一方で、現在の証明手法は回帰設定において重大なハードルに直面していることを示す。
論文 参考訳(メタデータ) (2020-06-02T23:30:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。