論文の概要: Generalized Inversion of Nonlinear Operators
- arxiv url: http://arxiv.org/abs/2111.10755v3
- Date: Tue, 19 Sep 2023 07:25:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 21:02:12.196912
- Title: Generalized Inversion of Nonlinear Operators
- Title(参考訳): 非線形作用素の一般化反転
- Authors: Eyal Gofer and Guy Gilboa
- Abstract要約: 演算子の反転はデータ処理の基本的な概念である。
最も注目すべきはムーア=ペンローズ逆数であり、物理学、統計学、工学の様々な分野に広く使われている。
- 参考スコア(独自算出の注目度): 6.191418251390628
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inversion of operators is a fundamental concept in data processing. Inversion
of linear operators is well studied, supported by established theory. When an
inverse either does not exist or is not unique, generalized inverses are used.
Most notable is the Moore-Penrose inverse, widely used in physics, statistics,
and various fields of engineering. This work investigates generalized inversion
of nonlinear operators.
We first address broadly the desired properties of generalized inverses,
guided by the Moore-Penrose axioms. We define the notion for general sets, and
then a refinement, termed pseudo-inverse, for normed spaces. We present
conditions for existence and uniqueness of a pseudo-inverse and establish
theoretical results investigating its properties, such as continuity, its value
for operator compositions and projection operators, and others. Analytic
expressions are given for the pseudo-inverse of some well-known,
non-invertible, nonlinear operators, such as hard- or soft-thresholding and
ReLU. We analyze a neural layer and discuss relations to wavelet thresholding.
Next, the Drazin inverse, and a relaxation, are investigated for operators
with equal domain and range. We present scenarios where inversion is
expressible as a linear combination of forward applications of the operator.
Such scenarios arise for classes of nonlinear operators with vanishing
polynomials, similar to the minimal or characteristic polynomials for matrices.
Inversion using forward applications may facilitate the development of new
efficient algorithms for approximating generalized inversion of complex
nonlinear operators.
- Abstract(参考訳): 演算子の反転はデータ処理の基本的な概念である。
線型作用素の反転は確立された理論によって支持され、よく研究されている。
逆が存在しないか一意でないとき、一般化された逆が用いられる。
最も注目すべきはムーア=ペンローズ逆数であり、物理学、統計学、工学の様々な分野に広く使われている。
本研究は非線形作用素の一般化反転を研究する。
まず、ムーア・ペンローズ公理に導かれる一般化された逆数の所望の性質を広く扱う。
一般集合の概念を定義し、次にノルム空間に対する洗練された擬逆函数を定義する。
擬似逆数の存在条件と一意性を示し,その性質,すなわち連続性,作用素合成と射影作用素に対する値などについて理論的に考察する。
解析式は、ハードスレッディングやソフトスレッディングやReLUのようなよく知られた非可逆な非線形作用素の擬逆数に対して与えられる。
神経層を分析し,ウェーブレット閾値との関係について考察する。
次に、等しい領域と範囲を持つ作用素に対して、逆ドラジンと緩和について研究する。
演算子の前方応用の線形結合として逆変換が表現可能なシナリオを示す。
そのようなシナリオは、行列の最小多項式や特徴多項式と同様に、消滅する多項式を持つ非線形作用素のクラスに対して生じる。
フォワード応用を用いたインバージョンは、複素非線形作用素の一般化インバージョンを近似する新しい効率的なアルゴリズムの開発を促進することができる。
関連論文リスト
- Optimal Matrix-Mimetic Tensor Algebras via Variable Projection [0.0]
行列緩和性(Matrix mimeticity)は、テンソルを、行列に類似した乗算、分解、解析が可能な作用素として解釈することから生じる。
我々は、データの事前の知識に頼ることなく、最適線形写像と対応するテンソル表現を学習する。
可変射影型アルゴリズムの変換と収束解析の独創性理論を提供する。
論文 参考訳(メタデータ) (2024-06-11T04:52:23Z) - General expansion of natural power of linear combination of Bosonic
operators in normal order [3.42658286826597]
ボゾン作用素の線型結合の自然パワーを正規順序で一般化する。
この結果は、量子力学における多体系の研究に重要である。
論文 参考訳(メタデータ) (2023-05-29T14:26:45Z) - Learning linear operators: Infinite-dimensional regression as a well-behaved non-compact inverse problem [4.503368323711748]
経験的観測から2つのヒルベルト空間の間の線型作用素を$theta$で学習する問題を考察する。
この目標を$theta$の逆問題として、フォワード演算子が一般に非コンパクトであるような特徴で再定義できることが示される。
この逆問題は、スカラー応答回帰の導出に伴う既知のコンパクト逆問題と等価であることを示す。
論文 参考訳(メタデータ) (2022-11-16T12:33:01Z) - Marginalized Operators for Off-policy Reinforcement Learning [53.37381513736073]
有理化作用素は、Retraceのような一般的な多段階作用素を特別な場合として厳密に一般化する。
余剰化演算子の推定値がスケーラブルな方法で計算可能であることを示し、また、余剰化重要度サンプリングの事前結果を特別な場合として一般化する。
論文 参考訳(メタデータ) (2022-03-30T09:59:59Z) - Generalized Optimization: A First Step Towards Category Theoretic
Learning Theory [1.52292571922932]
我々は、勾配勾配勾配の直接一般化やニュートン法の新しい一般化など、いくつかの最適化アルゴリズムを一般化する。
これらのアルゴリズムの変換不変性が保存されていることを示す。
また,内積様表現を用いて一般化降下の損失の変化を表現できることも示している。
論文 参考訳(メタデータ) (2021-09-20T15:19:06Z) - Convolutional Filtering and Neural Networks with Non Commutative
Algebras [153.20329791008095]
本研究では,非可換畳み込みニューラルネットワークの一般化について検討する。
非可換畳み込み構造は作用素空間上の変形に対して安定であることを示す。
論文 参考訳(メタデータ) (2021-08-23T04:22:58Z) - Neural Operator: Learning Maps Between Function Spaces [75.93843876663128]
本稿では,無限次元関数空間間を写像する演算子,いわゆるニューラル演算子を学習するためのニューラルネットワークの一般化を提案する。
提案したニューラル作用素に対して普遍近似定理を証明し、任意の非線形連続作用素を近似することができることを示す。
ニューラル作用素に対する重要な応用は、偏微分方程式の解作用素に対する代理写像を学習することである。
論文 参考訳(メタデータ) (2021-08-19T03:56:49Z) - Analytic gradients in variational quantum algorithms: Algebraic
extensions of the parameter-shift rule to general unitary transformations [0.0]
一般固有スペクトルを持つジェネレータに対する期待値の線形結合として、勾配を定式化するためのパラメトリックシフトルールのいくつかの拡張を提案する。
我々のアプローチは正確であり、補助量子ビットは一切使用せず、代わりにジェネレータ固有スペクトル解析に依存している。
論文 参考訳(メタデータ) (2021-07-16T21:37:31Z) - Robust Differentiable SVD [117.35644933471401]
対称行列の固有分解は多くのコンピュータビジョンアルゴリズムの中心にある。
不安定性は互いに近い固有値の存在によって生じる。
SVD勾配のテイラー展開は、反復過程に依存することなくPIを用いて得られる勾配と理論的に等価であることを示す。
論文 参考訳(メタデータ) (2021-04-08T15:04:15Z) - A Differential Geometry Perspective on Orthogonal Recurrent Models [56.09491978954866]
我々は微分幾何学からのツールと洞察を用いて、直交rnnの新しい視点を提供する。
直交RNNは、発散自由ベクトル場の空間における最適化と見なすことができる。
この観測に動機づけられて、ベクトル場全体の空間にまたがる新しいリカレントモデルの研究を行う。
論文 参考訳(メタデータ) (2021-02-18T19:39:22Z) - Supervised Quantile Normalization for Low-rank Matrix Approximation [50.445371939523305]
我々は、$X$ の値と $UV$ の値を行ワイズで操作できる量子正規化演算子のパラメータを学習し、$X$ の低ランク表現の質を改善する。
本稿では,これらの手法が合成およびゲノムデータセットに適用可能であることを実証する。
論文 参考訳(メタデータ) (2020-02-08T21:06:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。