論文の概要: Log-Likelihood Ratio Minimizing Flows: Towards Robust and Quantifiable
Neural Distribution Alignment
- arxiv url: http://arxiv.org/abs/2003.12170v2
- Date: Mon, 26 Oct 2020 17:22:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 21:14:25.209338
- Title: Log-Likelihood Ratio Minimizing Flows: Towards Robust and Quantifiable
Neural Distribution Alignment
- Title(参考訳): log-likelihood ratio フロー最小化:ロバストで定量化可能なニューラルネットワークアライメントに向けて
- Authors: Ben Usman, Avneesh Sud, Nick Dufour, Kate Saenko
- Abstract要約: そこで本研究では,対数様比統計量と正規化フローに基づく新しい分布アライメント手法を提案する。
入力領域の局所構造を保存する領域アライメントにおいて,結果の最小化を実験的に検証する。
- 参考スコア(独自算出の注目度): 52.02794488304448
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Distribution alignment has many applications in deep learning, including
domain adaptation and unsupervised image-to-image translation. Most prior work
on unsupervised distribution alignment relies either on minimizing simple
non-parametric statistical distances such as maximum mean discrepancy or on
adversarial alignment. However, the former fails to capture the structure of
complex real-world distributions, while the latter is difficult to train and
does not provide any universal convergence guarantees or automatic quantitative
validation procedures. In this paper, we propose a new distribution alignment
method based on a log-likelihood ratio statistic and normalizing flows. We show
that, under certain assumptions, this combination yields a deep neural
likelihood-based minimization objective that attains a known lower bound upon
convergence. We experimentally verify that minimizing the resulting objective
results in domain alignment that preserves the local structure of input
domains.
- Abstract(参考訳): 分布アライメントは、ドメイン適応や教師なし画像-画像変換など、ディープラーニングに多くの応用がある。
教師なし分布アライメントに関するほとんどの先行研究は、最大平均偏差のような単純な非パラメトリック統計距離を最小化するか、逆アライメントに依存する。
しかし、前者は複雑な実世界の分布の構造を捉えることができず、後者は訓練が難しく、普遍的な収束保証や自動的定量化手順を提供しない。
本稿では,対数様比統計量と正規化フローに基づく分布アライメント手法を提案する。
特定の仮定の下では、この組み合わせは、収束時に既知の下限に達する深いニューラルフレーバーに基づく最小化目標をもたらす。
入力領域の局所構造を保存する領域アライメントにおいて,結果の最小化を実験的に検証する。
関連論文リスト
- Generalization error of min-norm interpolators in transfer learning [2.7309692684728617]
最小ノルム補間器は、現代の機械学習アルゴリズムの暗黙の正規化限界として自然に現れる。
多くのアプリケーションでは、トレーニング中に限られた量のテストデータが利用できるが、この設定におけるmin-normの特性は十分に理解されていない。
我々はこれらの特徴を達成するために、新しい異方性局所法を確立した。
論文 参考訳(メタデータ) (2024-06-20T02:23:28Z) - Distributed Markov Chain Monte Carlo Sampling based on the Alternating
Direction Method of Multipliers [143.6249073384419]
本論文では,乗算器の交互方向法に基づく分散サンプリング手法を提案する。
我々は,アルゴリズムの収束に関する理論的保証と,その最先端性に関する実験的証拠の両方を提供する。
シミュレーションでは,線形回帰タスクとロジスティック回帰タスクにアルゴリズムを配置し,その高速収束を既存の勾配法と比較した。
論文 参考訳(メタデータ) (2024-01-29T02:08:40Z) - Digging Into Uncertainty-based Pseudo-label for Robust Stereo Matching [39.959000340261625]
本稿では,ロバストなステレオマッチングのための不確実性推定法を提案する。
事前学習されたモデルを新しい領域に適応させるために,不確実性に基づく擬似ラベルを提案する。
本手法は,ロバスト・ビジョン・チャレンジ2020のステレオタスクにおいて,強いクロスドメイン,適応,共同一般化を示す。
論文 参考訳(メタデータ) (2023-07-31T09:11:31Z) - Cooperative Distribution Alignment via JSD Upper Bound [7.071749623370137]
教師なし分布アライメントは、2つ以上のソース分布を共有整列分布にマッピングする変換を推定する。
このタスクには、生成モデリング、教師なしドメイン適応、社会的に認識された学習など、多くの応用がある。
我々は,従来のフローベースアプローチを,単一の非逆数フレームワークで統一し,一般化することを提案する。
論文 参考訳(メタデータ) (2022-07-05T20:09:03Z) - Minibatch vs Local SGD with Shuffling: Tight Convergence Bounds and
Beyond [63.59034509960994]
シャッフルに基づく変種(ミニバッチと局所ランダムリシャッフル)について検討する。
ポリアック・ロジャシエヴィチ条件を満たす滑らかな函数に対して、これらのシャッフル型不変量(英語版)(shuffling-based variants)がそれらの置換式よりも早く収束することを示す収束境界を得る。
我々は, 同期シャッフル法と呼ばれるアルゴリズムの修正を提案し, ほぼ均一な条件下では, 下界よりも収束速度が速くなった。
論文 参考訳(メタデータ) (2021-10-20T02:25:25Z) - Distribution Mismatch Correction for Improved Robustness in Deep Neural
Networks [86.42889611784855]
正規化法は ノイズや入力の腐敗に関して 脆弱性を増大させる
本稿では,各層の活性化分布に適応する非教師なし非パラメトリック分布補正法を提案する。
実験により,提案手法は画像劣化の激しい影響を効果的に低減することを示した。
論文 参考訳(メタデータ) (2021-10-05T11:36:25Z) - KL Guided Domain Adaptation [88.19298405363452]
ドメイン適応は重要な問題であり、現実世界のアプリケーションにしばしば必要である。
ドメイン適応文学における一般的なアプローチは、ソースとターゲットドメインに同じ分布を持つ入力の表現を学ぶことである。
確率的表現ネットワークにより、KL項はミニバッチサンプルにより効率的に推定できることを示す。
論文 参考訳(メタデータ) (2021-06-14T22:24:23Z) - Distributionally Robust Federated Averaging [19.875176871167966]
適応サンプリングを用いた堅牢な学習周期平均化のためのコミュニケーション効率の高い分散アルゴリズムを提案する。
我々は、フェデレーション学習環境における理論的結果に関する実験的証拠を裏付ける。
論文 参考訳(メタデータ) (2021-02-25T03:32:09Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。