論文の概要: Removing Undesirable Feature Contributions Using Out-of-Distribution
Data
- arxiv url: http://arxiv.org/abs/2101.06639v2
- Date: Wed, 3 Mar 2021 05:40:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-27 20:21:23.118927
- Title: Removing Undesirable Feature Contributions Using Out-of-Distribution
Data
- Title(参考訳): out-of-distributionデータを用いた望ましくない機能コントリビューションの削除
- Authors: Saehyung Lee, Changhwa Park, Hyungyu Lee, Jihun Yi, Jonghyun Lee,
Sungroh Yoon
- Abstract要約: 敵対的学習と標準学習の両方における一般化を改善するためのデータ拡張手法を提案する。
提案手法は,既存の対人訓練をさらに改善することができる。
- 参考スコア(独自算出の注目度): 20.437871747430826
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Several data augmentation methods deploy unlabeled-in-distribution (UID) data
to bridge the gap between the training and inference of neural networks.
However, these methods have clear limitations in terms of availability of UID
data and dependence of algorithms on pseudo-labels. Herein, we propose a data
augmentation method to improve generalization in both adversarial and standard
learning by using out-of-distribution (OOD) data that are devoid of the
abovementioned issues. We show how to improve generalization theoretically
using OOD data in each learning scenario and complement our theoretical
analysis with experiments on CIFAR-10, CIFAR-100, and a subset of ImageNet. The
results indicate that undesirable features are shared even among image data
that seem to have little correlation from a human point of view. We also
present the advantages of the proposed method through comparison with other
data augmentation methods, which can be used in the absence of UID data.
Furthermore, we demonstrate that the proposed method can further improve the
existing state-of-the-art adversarial training.
- Abstract(参考訳): ニューラルネットワークのトレーニングと推論の間のギャップを埋めるために、いくつかのデータ拡張手法がラベルなし分散(uid)データをデプロイする。
しかし、これらの手法は、UIDデータの可用性と擬似ラベルへのアルゴリズムの依存に関して明確な制限がある。
そこで,本稿では,先述の課題を伴わないアウト・オブ・ディストリビューション(OOD)データを用いて,逆学習と標準学習の両方における一般化を改善するためのデータ拡張手法を提案する。
CIFAR-10, CIFAR-100, ImageNetのサブセットを用いて, 各学習シナリオにおいてOODデータを用いて理論的に一般化を改善する方法を示し, 理論的解析を補完する。
その結果,人間の視点では相関性に乏しい画像データにおいても,望ましくない特徴が共有されていることがわかった。
また,UIDデータがない場合に利用できる他のデータ拡張手法との比較により,提案手法の利点を示す。
さらに,提案手法により,既存の対人訓練をさらに改善できることを示す。
関連論文リスト
- Cross-feature Contrastive Loss for Decentralized Deep Learning on
Heterogeneous Data [8.946847190099206]
異種データに基づく分散学習のための新しい手法を提案する。
一対の隣接するエージェントのクロスフィーチャーは、他のエージェントのモデルパラメータに関するエージェントのデータから得られる特徴である。
実験の結果,提案手法は異種データを用いた分散学習手法に比べて性能(テスト精度が0.2~4%向上)が優れていることがわかった。
論文 参考訳(メタデータ) (2023-10-24T14:48:23Z) - Learning A Disentangling Representation For PU Learning [18.94726971543125]
本稿では、ラベルのないデータを2つのクラスタに投影するロス関数を用いて、ニューラルネットワークに基づくデータ表現を学習することを提案する。
提案手法の性能向上を実証する PU データのシミュレーション実験を行った。
論文 参考訳(メタデータ) (2023-10-05T18:33:32Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Leachable Component Clustering [10.377914682543903]
本研究では,非完全データのクラスタリングに対する新たなアプローチとして,リーチ可能なコンポーネントクラスタリングを提案する。
提案手法はベイズアライメントを用いてデータ計算を処理し,理論上失われたパターンを収集する。
いくつかの人工不完全データセットの実験により、提案手法は、他の最先端アルゴリズムと比較して優れた性能を示すことができることを示した。
論文 参考訳(メタデータ) (2022-08-28T13:13:17Z) - Incorporating Semi-Supervised and Positive-Unlabeled Learning for
Boosting Full Reference Image Quality Assessment [73.61888777504377]
フル参照(FR)画像品質評価(IQA)は、その知覚的差異をプリズム品質基準で測定することにより、歪み画像の視覚的品質を評価する。
ラベルなしデータは、画像劣化または復元プロセスから容易に収集することができ、ラベルなしのトレーニングデータを利用してFR-IQA性能を高めることを奨励する。
本稿では, 半教師付き, 正の未ラベル学習(PU)を用いて, ラベルなしデータを活用し, オフレーヤの悪影響を軽減することを提案する。
論文 参考訳(メタデータ) (2022-04-19T09:10:06Z) - Learning Bias-Invariant Representation by Cross-Sample Mutual
Information Minimization [77.8735802150511]
対象タスクが誤用したバイアス情報を除去するために,クロスサンプル対逆脱バイアス法(CSAD)を提案する。
相関測定は, 対向的偏り評価において重要な役割を担い, クロスサンプル型相互情報推定器によって行われる。
我々は,提案手法の最先端手法に対する利点を検証するために,公開データセットの徹底的な実験を行った。
論文 参考訳(メタデータ) (2021-08-11T21:17:02Z) - Deep Stable Learning for Out-Of-Distribution Generalization [27.437046504902938]
深層ニューラルネットワークに基づくアプローチは、同様の分布を持つデータとトレーニングデータをテストする際に顕著なパフォーマンスを達成した。
トレーニングとテストデータ間の分散シフトの影響を排除することは、パフォーマンス向上の深層モデルの構築に不可欠です。
トレーニングサンプルの学習重みによる特徴間の依存関係を除去し,この問題に対処することを提案する。
論文 参考訳(メタデータ) (2021-04-16T03:54:21Z) - DEALIO: Data-Efficient Adversarial Learning for Imitation from
Observation [57.358212277226315]
観察ifoからの模倣学習において、学習エージェントは、実演者の生成した制御信号にアクセスせずに、実演行動の観察のみを用いて実演エージェントを模倣しようとする。
近年、逆模倣学習に基づく手法は、ifO問題に対する最先端のパフォーマンスをもたらすが、データ非効率でモデルなしの強化学習アルゴリズムに依存するため、サンプルの複雑さに悩まされることが多い。
この問題は、サンプルの収集が時間、エネルギー、およびリスクの面で高いコストを被る可能性がある現実世界の設定に展開することは非現実的です。
よりデータ効率の高いifOアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-31T23:46:32Z) - Negative Data Augmentation [127.28042046152954]
負のデータ拡張サンプルは、データ分散のサポートに関する情報を提供することを示す。
我々は、NDAを識別器の合成データの追加源として利用する新しいGAN訓練目標を提案する。
実験により,本手法で訓練したモデルでは,異常検出能力の向上とともに条件付き・条件付き画像生成の改善を実現している。
論文 参考訳(メタデータ) (2021-02-09T20:28:35Z) - On the Benefits of Invariance in Neural Networks [56.362579457990094]
データ拡張によるトレーニングは、リスクとその勾配をよりよく見積もることを示し、データ拡張でトレーニングされたモデルに対して、PAC-Bayes一般化を提供する。
また,データ拡張と比べ,平均化は凸損失を伴う場合の一般化誤差を低減し,PAC-Bayes境界を狭めることを示した。
論文 参考訳(メタデータ) (2020-05-01T02:08:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。