論文の概要: Idempotent Generative Network
- arxiv url: http://arxiv.org/abs/2311.01462v1
- Date: Thu, 2 Nov 2023 17:59:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-03 12:12:34.110671
- Title: Idempotent Generative Network
- Title(参考訳): イデムポテント生成ネットワーク
- Authors: Assaf Shocher, Amil Dravid, Yossi Gandelsman, Inbar Mosseri, Michael
Rubinstein, Alexei A. Efros
- Abstract要約: 本稿では,ニューラルネットワークを等質にトレーニングした生成モデリングのための新しい手法を提案する。
一等演算子は、初期アプリケーションを超えて結果を変更せずに順次適用できる演算子である。
ターゲット分布とソース分布の両方からの入力を処理することにより、モデルがターゲット多様体に完全に破損または修正されたデータを投影することがわかった。
- 参考スコア(独自算出の注目度): 61.78905138698094
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a new approach for generative modeling based on training a neural
network to be idempotent. An idempotent operator is one that can be applied
sequentially without changing the result beyond the initial application, namely
$f(f(z))=f(z)$. The proposed model $f$ is trained to map a source distribution
(e.g, Gaussian noise) to a target distribution (e.g. realistic images) using
the following objectives: (1) Instances from the target distribution should map
to themselves, namely $f(x)=x$. We define the target manifold as the set of all
instances that $f$ maps to themselves. (2) Instances that form the source
distribution should map onto the defined target manifold. This is achieved by
optimizing the idempotence term, $f(f(z))=f(z)$ which encourages the range of
$f(z)$ to be on the target manifold. Under ideal assumptions such a process
provably converges to the target distribution. This strategy results in a model
capable of generating an output in one step, maintaining a consistent latent
space, while also allowing sequential applications for refinement.
Additionally, we find that by processing inputs from both target and source
distributions, the model adeptly projects corrupted or modified data back to
the target manifold. This work is a first step towards a ``global projector''
that enables projecting any input into a target data distribution.
- Abstract(参考訳): そこで我々は,ニューラルネットワークの学習に基づく生成モデリングの新しい手法を提案する。
idempotent operator は、初期アプリケーションを超えて結果を変更することなく順次適用できる演算子で、$f(f(z))=f(z)$ である。
提案されたモデル$f$は、ソース分布(例えばガウスノイズ)を対象の分布(例えば現実的な画像)に、次の目的を用いてマッピングするように訓練されている。
対象多様体を、$f$が自身にマップするすべてのインスタンスの集合として定義する。
(2) ソース分布を形成するインスタンスは、定義されたターゲット多様体にマップすべきである。
これは、目的多様体上の$f(z)$の範囲を奨励するイデオポテンス項 $f(f(z))=f(z)$ を最適化することで達成される。
理想的な仮定の下では、そのようなプロセスは目標分布に確実に収束する。
この戦略により、モデルが1ステップで出力を生成でき、一貫した潜在空間を維持しながら、改良のためのシーケンシャルなアプリケーションを可能にする。
さらに,ターゲット分布とソース分布の両方から入力を処理することで,モデルが劣化したり,修正されたデータを対象多様体に戻すことを発見した。
この作業は‘グローバルプロジェクタ’への第一歩であり、任意の入力をターゲットデータ分布に投影することができる。
関連論文リスト
- Concentration Inequalities for $(f,Γ)$-GANs [5.022028859839544]
GAN(Generative Adversarial Network)は、ジェネレータ分布を訓練する教師なし学習手法である。
最近の研究は、積分確率測度(IPM)に基づくGANの統計的整合性(例えば、1-ワッサーシュタイン測度に基づくWGAN)を証明している。
非線形目的関数の使用を可能にする GAN のより大きなクラスは、$(f,Gamma)$-divergences を用いて構築することができる。
論文 参考訳(メタデータ) (2024-06-24T17:42:03Z) - Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Delta-AI: Local objectives for amortized inference in sparse graphical models [64.5938437823851]
スパース確率的グラフィカルモデル(PGM)における補正推論のための新しいアルゴリズムを提案する。
提案手法は, PGMにおける変数のサンプリングをエージェントが行う一連の行動とみなす場合, エージェントのポリシー学習目的において, PGMの疎結合が局所的な信用割当を可能にするという観察に基づいている。
合成PGMからサンプリングし、スパース因子構造を持つ潜在変数モデルを訓練するための$Delta$-AIの有効性について説明する。
論文 参考訳(メタデータ) (2023-10-03T20:37:03Z) - Normalizing flow sampling with Langevin dynamics in the latent space [12.91637880428221]
正規化フロー(NF)は、連続生成器を使用して、単純な潜伏分布(例えばガウス分布)をトレーニングデータセットに関連する経験的対象分布にマッピングする。
標準NFは可微分写像を実装しているため、複雑な分布を対象とする場合、病理学的挙動に悩まされることがある。
本稿では,マルコフ連鎖モンテカルロアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-20T09:31:35Z) - Multi-Task Imitation Learning for Linear Dynamical Systems [50.124394757116605]
線形システム上での効率的な模倣学習のための表現学習について検討する。
学習対象ポリシーによって生成された軌道上の模倣ギャップは、$tildeOleft(frack n_xHN_mathrmshared + frack n_uN_mathrmtargetright)$で制限されている。
論文 参考訳(メタデータ) (2022-12-01T00:14:35Z) - Redistributor: Transforming Empirical Data Distributions [1.4936946857731088]
再配布者は、スカラーサンプルのコレクションを所望の分布に従うように強制する。
これは、分布において$R(S)=T$を満たす変換$R$の一貫した推定子を生成する。
パッケージはPythonで実装されており、大きなデータセットを効率的に扱うように最適化されている。
論文 参考訳(メタデータ) (2022-10-25T17:59:03Z) - Model Transferability With Responsive Decision Subjects [11.07759054787023]
我々は、利用可能なソース分布でトレーニングされたモデルの性能が、その誘導されたドメインのパフォーマンスにどのように変換されるかを研究することによって、モデルの転送可能性に関する議論を形式化する。
我々は、誘導されたドメインシフトによるパフォーマンスギャップの上限と、分類器がソーストレーニング分布または誘導されたターゲット分布に悩まさなければならないトレードオフの上限の両方を提供する。
論文 参考訳(メタデータ) (2021-07-13T08:21:37Z) - KL Guided Domain Adaptation [88.19298405363452]
ドメイン適応は重要な問題であり、現実世界のアプリケーションにしばしば必要である。
ドメイン適応文学における一般的なアプローチは、ソースとターゲットドメインに同じ分布を持つ入力の表現を学ぶことである。
確率的表現ネットワークにより、KL項はミニバッチサンプルにより効率的に推定できることを示す。
論文 参考訳(メタデータ) (2021-06-14T22:24:23Z) - On Generating Transferable Targeted Perturbations [102.3506210331038]
伝達性の高い標的摂動に対する新しい生成的アプローチを提案する。
私たちのアプローチは、ターゲットクラスの「乱れた画像分布」にマッチし、高いターゲット転送率につながります。
論文 参考訳(メタデータ) (2021-03-26T17:55:28Z) - Convergence and Sample Complexity of SGD in GANs [15.25030172685628]
SGDによるGAN(Generative Adversarial Networks)のトレーニングにおける収束保証を提供する。
我々は,非線形アクティベーション機能を持つ1層ジェネレータネットワークによってモデル化されたターゲット分布の学習を検討する。
この結果は、ReLUを含む幅広い非線形アクティベーション関数 $phi$ に適用され、切り離された統計との接続によって実現される。
論文 参考訳(メタデータ) (2020-12-01T18:50:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。