論文の概要: Analyzing and Improving Optimal-Transport-based Adversarial Networks
- arxiv url: http://arxiv.org/abs/2310.02611v2
- Date: Thu, 7 Mar 2024 05:13:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-08 17:44:39.910450
- Title: Analyzing and Improving Optimal-Transport-based Adversarial Networks
- Title(参考訳): 最適トランスポート型対向ネットワークの解析と改善
- Authors: Jaemoo Choi, Jaewoong Choi, Myungjoo Kang
- Abstract要約: 最適輸送(OT)問題は、与えられたコスト関数を最小化しつつ、2つの分布をブリッジする輸送計画を見つけることを目的としている。
OT理論は生成モデリングに広く利用されている。
提案手法はCIFAR-10では2.51点,CelebA-HQ-256では5.99点のFIDスコアを得た。
- 参考スコア(独自算出の注目度): 9.980822222343921
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optimal Transport (OT) problem aims to find a transport plan that bridges two
distributions while minimizing a given cost function. OT theory has been widely
utilized in generative modeling. In the beginning, OT distance has been used as
a measure for assessing the distance between data and generated distributions.
Recently, OT transport map between data and prior distributions has been
utilized as a generative model. These OT-based generative models share a
similar adversarial training objective. In this paper, we begin by unifying
these OT-based adversarial methods within a single framework. Then, we
elucidate the role of each component in training dynamics through a
comprehensive analysis of this unified framework. Moreover, we suggest a simple
but novel method that improves the previously best-performing OT-based model.
Intuitively, our approach conducts a gradual refinement of the generated
distribution, progressively aligning it with the data distribution. Our
approach achieves a FID score of 2.51 on CIFAR-10 and 5.99 on CelebA-HQ-256,
outperforming unified OT-based adversarial approaches.
- Abstract(参考訳): 最適輸送(ot)問題は、与えられたコスト関数を最小化しながら2つの分布を橋渡しする輸送計画を見つけることを目的としている。
OT理論は生成モデリングに広く利用されている。
当初、OT距離はデータと生成された分布の間の距離を評価する尺度として用いられてきた。
近年,データと先行分布間のOTトランスポートマップを生成モデルとして利用している。
これらのOTベースの生成モデルは、同様の敵の訓練目標を共有している。
本稿では,これらotベースの敵メソッドを一つのフレームワークで統一することから始める。
次に,この統一フレームワークの包括的分析を通じて,学習ダイナミクスにおける各コンポーネントの役割を解明する。
さらに,従来で最も優れたOTモデルを改善するための,単純だが斬新な手法を提案する。
直感的に,本手法では,生成した分布を段階的に洗練し,データ分布と漸進的に調整する。
提案手法はCIFAR-10では2.51点,CelebA-HQ-256では5.99点のFIDスコアを得た。
関連論文リスト
- Improving Neural Optimal Transport via Displacement Interpolation [16.474572112062535]
最適輸送(OT)理論は、ソース分布をターゲット分布に移動させるコスト最小化輸送マップを考察する。
本稿では, 安定度を向上し, 変位を利用した OT Map の近似性を向上する手法を提案する。
画像から画像への変換タスクにおいて,DIOTMが既存のOTベースモデルより優れていることを示す。
論文 参考訳(メタデータ) (2024-10-03T16:42:23Z) - Double-Bounded Optimal Transport for Advanced Clustering and
Classification [58.237576976486544]
本稿では,2つの境界内での目標分布の制限を前提としたDB-OT(Douubly bounded Optimal Transport)を提案する。
提案手法は,テスト段階における改良された推論方式により,良好な結果が得られることを示す。
論文 参考訳(メタデータ) (2024-01-21T07:43:01Z) - Unifying Distributionally Robust Optimization via Optimal Transport
Theory [13.19058156672392]
本稿では,これらの手法を最適輸送に基づく単一フレームワークに統一する新しい手法を提案する。
提案手法により,最適対向分布が同時に摂動確率と結果を得ることが可能となる。
本稿では, この統合フレームワークの実用性を高めるための, トラクタブルな改質手法を提案する。
論文 参考訳(メタデータ) (2023-08-10T08:17:55Z) - Tackling Computational Heterogeneity in FL: A Few Theoretical Insights [68.8204255655161]
我々は、計算異種データの形式化と処理を可能にする新しい集約フレームワークを導入し、分析する。
提案するアグリゲーションアルゴリズムは理論的および実験的予測から広範囲に解析される。
論文 参考訳(メタデータ) (2023-07-12T16:28:21Z) - Generative Modeling through the Semi-dual Formulation of Unbalanced
Optimal Transport [9.980822222343921]
非平衡最適輸送(UOT)の半二重定式化に基づく新しい生成モデルを提案する。
OTとは異なり、UOTは分散マッチングの厳しい制約を緩和する。このアプローチは、外れ値に対する堅牢性、トレーニング中の安定性、より高速な収束を提供する。
CIFAR-10ではFIDスコアが2.97、CelebA-HQ-256では6.36である。
論文 参考訳(メタデータ) (2023-05-24T06:31:05Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - Learning Optimal Transport Between two Empirical Distributions with
Normalizing Flows [12.91637880428221]
本稿では、ニューラルネットワークの柔軟性を活用して、最適輸送マップを近似的に学習することを提案する。
我々は、このOT問題の解を近似するために、非可逆ニューラルネットワークの特定の例、すなわち正規化フローが利用できることを示した。
論文 参考訳(メタデータ) (2022-07-04T08:08:47Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Learning to Solve Routing Problems via Distributionally Robust
Optimization [14.506553345693536]
ルーティング問題を解決するための最近のディープモデルでは、トレーニング用のノードの単一分布が想定されており、分散一般化能力を著しく損なう。
この問題に対処するために、群分布的ロバストな最適化(グループDRO)を活用し、異なる分布群に対する重み付けと深層モデルのパラメータを、トレーニング中にインターリーブされた方法で共同で最適化する。
また、畳み込みニューラルネットワークに基づくモジュールを設計し、ディープモデルがノード間のより情報に富んだ潜在パターンを学習できるようにする。
論文 参考訳(メタデータ) (2022-02-15T08:06:44Z) - Towards Accurate Knowledge Transfer via Target-awareness Representation
Disentanglement [56.40587594647692]
本稿では,TRED(Target-Awareness Representation Disentanglement)の概念を取り入れた新しいトランスファー学習アルゴリズムを提案する。
TREDは、対象のタスクに関する関連する知識を元のソースモデルから切り離し、ターゲットモデルを微調整する際、レギュレータとして使用する。
各種実世界のデータセットを用いた実験により,本手法は標準微調整を平均2%以上安定的に改善することが示された。
論文 参考訳(メタデータ) (2020-10-16T17:45:08Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。