論文の概要: Improving Out-of-Distribution Robustness of Classifiers via Generative
Interpolation
- arxiv url: http://arxiv.org/abs/2307.12219v1
- Date: Sun, 23 Jul 2023 03:53:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-25 17:21:21.567101
- Title: Improving Out-of-Distribution Robustness of Classifiers via Generative
Interpolation
- Title(参考訳): 生成補間による分類器の分散外ロバスト性の向上
- Authors: Haoyue Bai, Ceyuan Yang, Yinghao Xu, S.-H. Gary Chan, Bolei Zhou
- Abstract要約: ディープニューラルネットワークは、独立かつ同一に分散されたデータ(すなわち、d)から学習する上で、優れたパフォーマンスを達成する。
しかし、アウト・オブ・ディストリビューション(OoD)データを扱う場合、その性能は著しく低下する。
多様なOoDサンプルを合成するために,複数のドメインから学習した生成モデルを融合するための生成補間法(Generative Interpolation)を開発した。
- 参考スコア(独自算出の注目度): 56.620403243640396
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks achieve superior performance for learning from
independent and identically distributed (i.i.d.) data. However, their
performance deteriorates significantly when handling out-of-distribution (OoD)
data, where the training and test are drawn from different distributions. In
this paper, we explore utilizing the generative models as a data augmentation
source for improving out-of-distribution robustness of neural classifiers.
Specifically, we develop a simple yet effective method called Generative
Interpolation to fuse generative models trained from multiple domains for
synthesizing diverse OoD samples. Training a generative model directly on the
source domains tends to suffer from mode collapse and sometimes amplifies the
data bias. Instead, we first train a StyleGAN model on one source domain and
then fine-tune it on the other domains, resulting in many correlated generators
where their model parameters have the same initialization thus are aligned. We
then linearly interpolate the model parameters of the generators to spawn new
sets of generators. Such interpolated generators are used as an extra data
augmentation source to train the classifiers. The interpolation coefficients
can flexibly control the augmentation direction and strength. In addition, a
style-mixing mechanism is applied to further improve the diversity of the
generated OoD samples. Our experiments show that the proposed method explicitly
increases the diversity of training domains and achieves consistent
improvements over baselines across datasets and multiple different distribution
shifts.
- Abstract(参考訳): ディープニューラルネットワークは、独立分散(i.i.d.)データから学習する上で優れた性能を達成する。
しかし、トレーニングとテストが異なる分布から引き出される、od(out-of-distribution)データを扱う場合、その性能は著しく低下する。
本稿では,生成モデルをデータ拡張源として活用して,ニューラル分類器の分布外ロバスト性を改善することを検討する。
具体的には,多様なOoDサンプルを合成するために,複数のドメインから学習した生成モデルを融合させるジェネレーション補間法を開発した。
ソースドメイン上で生成モデルをトレーニングする場合、モード崩壊に悩まされ、時にはデータバイアスを増幅する。
代わりに、まず1つのソースドメイン上でStyleGANモデルをトレーニングし、それから他のドメインで微調整します。
次に、ジェネレータのモデルパラメータを線形に補間し、新しいジェネレータセットを生成する。
このような補間されたジェネレータは、分類器を訓練する余分なデータ拡張ソースとして使用される。
補間係数は、増大方向及び強度を柔軟に制御することができる。
また, 生成したoodサンプルの多様性をさらに向上させるために, スタイル混合機構を適用した。
実験の結果,提案手法はトレーニング領域の多様性を明示的に向上し,データセット間のベースラインの整合性の向上と複数の分散シフトを実現する。
関連論文リスト
- Robust training of implicit generative models for multivariate and heavy-tailed distributions with an invariant statistical loss [0.4249842620609682]
我々は、引用2024トレーニングで導入されたISL(textitinvariant statistics loss)法に基づいて構築する。
重み付きおよび多変量データ分散を扱うように拡張する。
ジェネレーティブ・ジェネレーティブ・モデリングにおけるその性能を評価し、ジェネレーティブ・ディバイサル・ネットワーク(GAN)の事前学習技術としての可能性を探る。
論文 参考訳(メタデータ) (2024-10-29T10:27:50Z) - Derivative-Free Guidance in Continuous and Discrete Diffusion Models with Soft Value-Based Decoding [84.3224556294803]
拡散モデルは、画像、分子、DNA、RNA、タンパク質配列の自然なデザイン空間を捉えるのに優れている。
これらの設計空間の自然性を保ちながら、下流の報酬関数を最適化することを目指している。
提案アルゴリズムは,中間雑音状態が将来高い報酬をもたらすことの先駆けとして,ソフトバリュー関数を統合する。
論文 参考訳(メタデータ) (2024-08-15T16:47:59Z) - BEND: Bagging Deep Learning Training Based on Efficient Neural Network Diffusion [56.9358325168226]
BEND(Efficient Neural Network Diffusion)に基づくバッグング深層学習学習アルゴリズムを提案する。
我々のアプローチは単純だが効果的であり、まず複数のトレーニングされたモデルの重みとバイアスを入力として、オートエンコーダと潜伏拡散モデルを訓練する。
提案したBENDアルゴリズムは,元のトレーニングモデルと拡散モデルの両方の平均および中央値の精度を一貫して向上させることができる。
論文 参考訳(メタデータ) (2024-03-23T08:40:38Z) - Distribution-Aware Data Expansion with Diffusion Models [55.979857976023695]
本研究では,分散型拡散モデルに基づくトレーニングフリーなデータ拡張フレームワークであるDistDiffを提案する。
DistDiffは、オリジナルデータのみにトレーニングされたモデルと比較して、さまざまなデータセットの精度を一貫して向上させる。
論文 参考訳(メタデータ) (2024-03-11T14:07:53Z) - Diffusion-Model-Assisted Supervised Learning of Generative Models for
Density Estimation [10.793646707711442]
本稿では,密度推定のための生成モデルを訓練するためのフレームワークを提案する。
スコアベース拡散モデルを用いてラベル付きデータを生成する。
ラベル付きデータが生成されると、シンプルな完全に接続されたニューラルネットワークをトレーニングして、教師付き方法で生成モデルを学ぶことができます。
論文 参考訳(メタデータ) (2023-10-22T23:56:19Z) - Phoenix: A Federated Generative Diffusion Model [6.09170287691728]
大規模な集中型データセットで生成モデルをトレーニングすることで、データのプライバシやセキュリティ、アクセシビリティといった面での課題が発生する可能性がある。
本稿では,フェデレートラーニング(FL)技術を用いて,複数のデータソースにまたがる拡散確率モデル(DDPM)の学習手法を提案する。
論文 参考訳(メタデータ) (2023-06-07T01:43:09Z) - Diff-Instruct: A Universal Approach for Transferring Knowledge From
Pre-trained Diffusion Models [77.83923746319498]
本稿では,任意の生成モデルの学習を指導するDiff-Instructというフレームワークを提案する。
Diff-Instructは、最先端の単一ステップ拡散モデルであることを示す。
GANモデルの精製実験により、Diff-InstructはGANモデルの事前訓練されたジェネレータを一貫して改善できることが示されている。
論文 参考訳(メタデータ) (2023-05-29T04:22:57Z) - Accurate generation of stochastic dynamics based on multi-model
Generative Adversarial Networks [0.0]
GAN(Generative Adversarial Networks)は、テキストや画像生成などの分野において大きな可能性を秘めている。
ここでは、格子上の原型過程に適用することにより、このアプローチを定量的に検証する。
重要なことに、ノイズにもかかわらずモデルの離散性は維持される。
論文 参考訳(メタデータ) (2023-05-25T10:41:02Z) - Effective Dynamics of Generative Adversarial Networks [16.51305515824504]
GAN(Generative Adversarial Network)は、新しいサンプルを生成するために対人訓練を使用する機械学習モデルのクラスである。
モード崩壊と呼ばれるトレーニング失敗の1つの主要な形態は、ジェネレータがターゲット確率分布におけるモードの完全な多様性を再現できないことである。
本稿では,ジェネレータニューラルネットワークを出力空間内の粒子の集合に置き換えることで,学習ダイナミクスを捕捉するGANトレーニングの効果的なモデルを提案する。
論文 参考訳(メタデータ) (2022-12-08T22:04:01Z) - GANs with Variational Entropy Regularizers: Applications in Mitigating
the Mode-Collapse Issue [95.23775347605923]
深層学習の成功に基づいて、GAN(Generative Adversarial Networks)は、観測されたサンプルから確率分布を学習するための現代的なアプローチを提供する。
GANはしばしば、ジェネレータが入力分布の既存のすべてのモードをキャプチャできないモード崩壊問題に悩まされる。
情報理論のアプローチを採り、生成したサンプルのエントロピーの変動的下限を最大化し、それらの多様性を増大させる。
論文 参考訳(メタデータ) (2020-09-24T19:34:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。