論文の概要: DAIR: Data Augmented Invariant Regularization
- arxiv url: http://arxiv.org/abs/2110.11205v1
- Date: Thu, 21 Oct 2021 15:30:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-22 23:11:28.705126
- Title: DAIR: Data Augmented Invariant Regularization
- Title(参考訳): dair: データ拡張不変正規化
- Authors: Tianjian Huang and Shaunak Halbe and Chinnadhurai Sankar and Pooyan
Amini and Satwik Kottur and Alborz Geramifard and Meisam Razaviyayn and Ahmad
Beirami
- Abstract要約: 本稿では,データ拡張不変正規化(DAIR)を提案する。
DAIRレギュレータの特定の形式は、さまざまな設定で一貫して良好に機能することを示す。
ドメインシフトを含む複数の実世界の学習問題に適用する。
- 参考スコア(独自算出の注目度): 20.364846667289374
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While deep learning through empirical risk minimization (ERM) has succeeded
at achieving human-level performance at a variety of complex tasks, ERM
generalizes poorly to distribution shift. This is partly explained by
overfitting to spurious features such as background in images or named entities
in natural language. Synthetic data augmentation followed by empirical risk
minimization (DA-ERM) is a simple yet powerful solution to remedy this problem.
In this paper, we propose data augmented invariant regularization (DAIR). The
idea of DAIR is based on the observation that the model performance (loss) is
desired to be consistent on the augmented sample and the original one. DAIR
introduces a regularizer on DA-ERM to penalize such loss inconsistency. Both
theoretically and through empirical experiments, we show that a particular form
of the DAIR regularizer consistently performs well in a variety of settings. We
apply it to multiple real-world learning problems involving domain shift,
namely robust regression, visual question answering, robust deep neural network
training, and task-oriented dialog modeling. Our experiments show that DAIR
consistently outperforms ERM and DA-ERM with little marginal cost and setting
new state-of-the-art results in several benchmarks.
- Abstract(参考訳): 経験的リスク最小化(ERM)による深層学習は、様々な複雑なタスクにおいて人間レベルのパフォーマンスを達成することに成功したが、ERMは分散シフトに乏しい。
これは、画像の背景や自然言語の名前付きエンティティなど、スプリアスな特徴にオーバーフィットすることで部分的に説明されている。
合成データ拡張と経験的リスク最小化(DA-ERM)は、この問題を改善するための単純だが強力なソリューションである。
本稿では,データ拡張不変正規化(DAIR)を提案する。
DAIRの考え方は、モデルパフォーマンス(ロス)が、強化されたサンプルと元のサンプルに一貫性を持たせることが望ましいという観察に基づいている。
DAIRはDA-ERMに正規化器を導入し、そのような損失の矛盾を罰する。
理論的および経験的実験により, DAIR正則化器の特定の形態が, 様々な設定で常に良好に動作することを示す。
ドメインシフト、すなわち、堅牢な回帰、視覚的質問応答、堅牢なディープニューラルネットワークトレーニング、タスク指向ダイアログモデリングを含む複数の実世界の学習問題に適用する。
我々の実験によると、DAIRはEMMとDA-ERMを限界コストで一貫して上回り、いくつかのベンチマークで新しい最先端結果を設定している。
関連論文リスト
- Investigating the Impact of Model Complexity in Large Language Models [3.7919508292745676]
事前訓練された微調整パラダイムに基づく大規模言語モデル(LLM)は、自然言語処理タスクの解決において重要な役割を担っている。
本稿では,自己回帰 LLM に着目し,HMM (Hidden Markov Models) を用いたモデリングを提案する。
論文 参考訳(メタデータ) (2024-10-01T13:53:44Z) - Frustratingly Easy Model Generalization by Dummy Risk Minimization [38.67678021055096]
ダミーリスク最小化(DuRM)は、経験的リスク最小化(ERM)の一般化を改善するための、フラストレーション的に簡単かつ一般的な技術である。
DuRMは、ほぼ無料のランチ方式で、すべてのタスクにおけるパフォーマンスを継続的に改善できることを示す。
論文 参考訳(メタデータ) (2023-08-04T12:43:54Z) - Coping with Change: Learning Invariant and Minimum Sufficient
Representations for Fine-Grained Visual Categorization [26.254072665916155]
細粒度視覚分類(FGVC)は、様々な種間の類似した視覚的外観のために難しい課題である。
以前の研究では、トレーニングデータとテストデータは、同じ基礎的な分布を持ち、現代のバックボーンアーキテクチャによって抽出された特徴は差別的であり、見つからないテストデータによく当てはまると仮定されている。
我々は、FGVCにおける不変リスク最小化(IRM)と情報ボトルネック(IB)の原則を組み合わせて、不変性と最小限のIMS表現を学習する。
論文 参考訳(メタデータ) (2023-06-08T02:45:15Z) - Modeling the Q-Diversity in a Min-max Play Game for Robust Optimization [61.39201891894024]
群分布的ロバスト最適化(群 DRO)は、事前定義された群に対する最悪の損失を最小限にすることができる。
グループDROフレームワークをQ-Diversityを提案して再構築する。
インタラクティブなトレーニングモードによって特徴付けられるQ-Diversityは、アノテーションからグループ識別を緩和し、直接パラメータ化を行う。
論文 参考訳(メタデータ) (2023-05-20T07:02:27Z) - Learning Optimal Features via Partial Invariance [18.552839725370383]
不変リスク最小化(IRM)は、複数の環境から堅牢なモデルを学ぶことを目的とした一般的なフレームワークである。
IRMが予測器を過度に抑制できることを示し、これを補うために、$textitpartial invariance$を介して緩和を提案する。
線形設定と、言語と画像データの両方のタスクにおけるディープニューラルネットワークの両方で実施されたいくつかの実験により、結論の検証が可能になった。
論文 参考訳(メタデータ) (2023-01-28T02:48:14Z) - Discrete Auto-regressive Variational Attention Models for Text Modeling [53.38382932162732]
変分オートエンコーダ(VAE)はテキストモデリングに広く応用されている。
情報不足と後部崩壊という2つの課題に悩まされている。
本稿では,自己回帰変動注意モデル(DAVAM)を提案する。
論文 参考訳(メタデータ) (2021-06-16T06:36:26Z) - Contrastive Model Inversion for Data-Free Knowledge Distillation [60.08025054715192]
そこで、データ多様性を最適化可能な目的として明示的にモデル化するContrastive Model Inversionを提案します。
我々の主な観察では、同じ量のデータの制約の下では、高いデータの多様性は、通常より強いインスタンス識別を示す。
CIFAR-10, CIFAR-100, Tiny-ImageNetを用いた実験により, 生成したデータを知識蒸留に使用する場合, CMIは極めて優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2021-05-18T15:13:00Z) - Meta-Learned Invariant Risk Minimization [12.6484257912092]
経験的リスク最小化(ERM)ベースの機械学習アルゴリズムは、アウト・オブ・ディストリビューション(OOD)から得られたデータに対する弱い一般化パフォーマンスに苦しんでいる。
本稿では,IRMのためのメタラーニングに基づく新しいアプローチを提案する。
IRMv1 や IRM のすべての変種よりも OOD の一般化性能が優れているだけでなく,安定性が向上した IRMv1 の弱点にも対処できることを示す。
論文 参考訳(メタデータ) (2021-03-24T02:52:48Z) - On the Minimal Error of Empirical Risk Minimization [90.09093901700754]
回帰作業における経験的リスク最小化(ERM)手順の最小誤差について検討する。
私たちの鋭い下限は、データを生成するモデルの単純さに適応する可能性(あるいは不可能)に光を当てています。
論文 参考訳(メタデータ) (2021-02-24T04:47:55Z) - MMCGAN: Generative Adversarial Network with Explicit Manifold Prior [78.58159882218378]
本稿では,モード崩壊を緩和し,GANのトレーニングを安定させるために,明示的な多様体学習を採用することを提案する。
玩具データと実データの両方を用いた実験により,MMCGANのモード崩壊緩和効果,トレーニングの安定化,生成サンプルの品質向上効果が示された。
論文 参考訳(メタデータ) (2020-06-18T07:38:54Z) - SUOD: Accelerating Large-Scale Unsupervised Heterogeneous Outlier
Detection [63.253850875265115]
外乱検出(OD)は、一般的なサンプルから異常物体を識別するための機械学習(ML)タスクである。
そこで我々は,SUODと呼ばれるモジュール型加速度システムを提案する。
論文 参考訳(メタデータ) (2020-03-11T00:22:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。