論文の概要: Pseudo-Invertible Neural Networks
- arxiv url: http://arxiv.org/abs/2602.06042v1
- Date: Thu, 05 Feb 2026 18:59:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:09.160612
- Title: Pseudo-Invertible Neural Networks
- Title(参考訳): 擬似非可逆ニューラルネットワーク
- Authors: Yamit Ehrlich, Nimrod Berman, Assaf Shocher,
- Abstract要約: 本稿では,Surjective Pseudo-invertible Neural Networks (SPNN)を紹介する。
提案した非線形PInvとそのSPNNにおける実装は基本的な幾何学的性質を満たす。
- 参考スコア(独自算出の注目度): 7.337082724885154
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Moore-Penrose Pseudo-inverse (PInv) serves as the fundamental solution for linear systems. In this paper, we propose a natural generalization of PInv to the nonlinear regime in general and to neural networks in particular. We introduce Surjective Pseudo-invertible Neural Networks (SPNN), a class of architectures explicitly designed to admit a tractable non-linear PInv. The proposed non-linear PInv and its implementation in SPNN satisfy fundamental geometric properties. One such property is null-space projection or "Back-Projection", $x' = x + A^\dagger(y-Ax)$, which moves a sample $x$ to its closest consistent state $x'$ satisfying $Ax=y$. We formalize Non-Linear Back-Projection (NLBP), a method that guarantees the same consistency constraint for non-linear mappings $f(x)=y$ via our defined PInv. We leverage SPNNs to expand the scope of zero-shot inverse problems. Diffusion-based null-space projection has revolutionized zero-shot solving for linear inverse problems by exploiting closed-form back-projection. We extend this method to non-linear degradations. Here, "degradation" is broadly generalized to include any non-linear loss of information, spanning from optical distortions to semantic abstractions like classification. This approach enables zero-shot inversion of complex degradations and allows precise semantic control over generative outputs without retraining the diffusion prior.
- Abstract(参考訳): ムーア・ペンローズ Pseudo-inverse (PInv) は線型系の基本的な解である。
本稿では,PInvの非線形状態,特にニューラルネットワークに対する自然な一般化を提案する。
本稿では,Surjective Pseudo-invertible Neural Networks (SPNN)を紹介する。
提案した非線形PInvとそのSPNNにおける実装は基本的な幾何学的性質を満たす。
そのようなプロパティの1つは、nullスペースプロジェクションまたは"Back-Projection", $x' = x + A^\dagger(y-Ax)$である。
我々は、定義したPInvを介して、非線形写像の$f(x)=y$に対して同じ一貫性制約を保証する方法であるNLBP(Non-Linear Back-Projection)を定式化する。
我々はSPNNを利用してゼロショット逆問題の範囲を広げる。
拡散に基づくヌル空間射影は、閉形式のバックプロジェクションを利用して線形逆問題に対するゼロショット解法に革命をもたらした。
我々はこの手法を非線形劣化に拡張する。
ここで「劣化」は、光歪みから分類のような意味論的抽象化まで、情報の非線形な損失を含むように広く一般化されている。
このアプローチは、複雑な分解のゼロショット反転を可能にし、拡散前の再学習をすることなく、生成出力の正確な意味制御を可能にする。
関連論文リスト
- Physics-informed Gaussian Process Regression in Solving Eigenvalue Problem of Linear Operators [1.2228233723744197]
物理インフォームドガウス過程後部を用いて未知固有値/固有関数の転送関数型インジケータを構築する。
線形固有値問題と非線形固有値問題の両方を用いた数値例により,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2026-01-10T07:02:14Z) - Who Said Neural Networks Aren't Linear? [10.340966855587405]
本稿では,そのようなベクトル空間を構築によって明示する手法を提案する。
線形作用素 $A$ を 2 つの可逆ニューラルネットワーク、$f(x)=g_y-1(A g_x(x))$ に挟むと、対応するベクトル空間 $X$ と $Y$ は新たに定義された加算およびスケーリングアクションによって誘導される。
論文 参考訳(メタデータ) (2025-10-09T17:59:57Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Generalization and Stability of Interpolating Neural Networks with
Minimal Width [37.908159361149835]
補間系における勾配によって訓練された浅層ニューラルネットワークの一般化と最適化について検討する。
トレーニング損失数は$m=Omega(log4 (n))$ニューロンとニューロンを最小化する。
m=Omega(log4 (n))$のニューロンと$Tapprox n$で、テスト損失のトレーニングを$tildeO (1/)$に制限します。
論文 参考訳(メタデータ) (2023-02-18T05:06:15Z) - Projected Gradient Descent Algorithms for Solving Nonlinear Inverse
Problems with Generative Priors [17.426500577203505]
未知の$p$次元信号は、有界な$k$次元入力を持つ$L$-Lipschitz連続生成モデルの範囲近くにあると仮定する。
本稿では, 最適統計率を期待できる非線形最小二乗推定器を提案する。
論文 参考訳(メタデータ) (2022-09-21T04:05:12Z) - Exploring Linear Feature Disentanglement For Neural Networks [63.20827189693117]
Sigmoid、ReLU、Tanhなどの非線形活性化関数は、ニューラルネットワーク(NN)において大きな成功を収めた。
サンプルの複雑な非線形特性のため、これらの活性化関数の目的は、元の特徴空間から線形分離可能な特徴空間へサンプルを投影することである。
この現象は、現在の典型的なNNにおいて、すべての特徴がすべての非線形関数によって変換される必要があるかどうかを探求することに興味をそそる。
論文 参考訳(メタデータ) (2022-03-22T13:09:17Z) - Nonlinear State-Space Generalizations of Graph Convolutional Neural
Networks [172.18295279061607]
グラフ畳み込みニューラルネットワーク(GCNN)は、線形グラフ畳み込みを非線形にネストすることで、ネットワークデータから構成表現を学習する。
本稿では,GCNNを状態空間の観点からアプローチし,グラフ畳み込みモジュールが最小値線形状態空間モデルであることを明らかにする。
この状態更新は、非パラメトリックであり、グラフスペクトルによって爆発または消滅する可能性があるため、問題となる可能性がある。
本稿では,非線形な状態空間パラメトリック方式でノード特徴を階層内に集約し,よりよいトレードオフを実現するという,新しい結節集合規則を提案する。
論文 参考訳(メタデータ) (2020-10-27T19:48:56Z) - Improving predictions of Bayesian neural nets via local linearization [79.21517734364093]
ガウス・ニュートン近似は基礎となるベイズニューラルネットワーク(BNN)の局所線形化として理解されるべきである。
この線形化モデルを後部推論に使用するので、元のモデルではなく、この修正モデルを使用することも予測すべきである。
この修正された予測を"GLM predictive"と呼び、Laplace近似の共通不適合問題を効果的に解決することを示す。
論文 参考訳(メタデータ) (2020-08-19T12:35:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。