論文の概要: Equivariance and Invariance Inductive Bias for Learning from
Insufficient Data
- arxiv url: http://arxiv.org/abs/2207.12258v1
- Date: Mon, 25 Jul 2022 15:26:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 13:12:08.226063
- Title: Equivariance and Invariance Inductive Bias for Learning from
Insufficient Data
- Title(参考訳): 不十分なデータから学習するための等分散と不変誘導バイアス
- Authors: Tan Wang, Qianru Sun, Sugiri Pranata, Karlekar Jayashree, Hanwang
Zhang
- Abstract要約: 不十分なデータがモデルを、通常テストとは異なる限られたトレーニング環境にバイアスしやすくする理由が示されています。
従来のIRMにおける環境アノテーションの欠如を効果的に解決するクラスワイド不変リスク最小化(IRM)を提案する。
- 参考スコア(独自算出の注目度): 65.42329520528223
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We are interested in learning robust models from insufficient data, without
the need for any externally pre-trained checkpoints. First, compared to
sufficient data, we show why insufficient data renders the model more easily
biased to the limited training environments that are usually different from
testing. For example, if all the training swan samples are "white", the model
may wrongly use the "white" environment to represent the intrinsic class swan.
Then, we justify that equivariance inductive bias can retain the class feature
while invariance inductive bias can remove the environmental feature, leaving
the class feature that generalizes to any environmental changes in testing. To
impose them on learning, for equivariance, we demonstrate that any
off-the-shelf contrastive-based self-supervised feature learning method can be
deployed; for invariance, we propose a class-wise invariant risk minimization
(IRM) that efficiently tackles the challenge of missing environmental
annotation in conventional IRM. State-of-the-art experimental results on
real-world benchmarks (VIPriors, ImageNet100 and NICO) validate the great
potential of equivariance and invariance in data-efficient learning. The code
is available at https://github.com/Wangt-CN/EqInv
- Abstract(参考訳): 外部のトレーニング済みのチェックポイントを必要とせずに、不十分なデータから堅牢なモデルを学ぶことに興味があります。
まず、十分なデータと比較して、データ不足がモデルをテストとは異なる限られたトレーニング環境に偏りやすくする理由を示す。
例えば、すべてのトレーニングスワンサンプルが「白」である場合、モデルは固有のクラススワンを表現するために「白」環境を誤って使用することができる。
次に, 等分散インダクティブバイアスはクラス特徴を保ち, 不変インダクティブバイアスは環境特徴を取り除き, テストの環境変化に一般化したクラス特徴を残せることを正当化する。
学習に重きを置くためには,既成のコントラストベースの自己教師型特徴学習手法を適用可能であることを実証し,従来のIRMにおける環境アノテーションの欠如を効果的に解決するクラスワイド不変リスク最小化(IRM)を提案する。
実世界のベンチマーク(VIPriors, ImageNet100, NICO)における最先端の実験結果から、データ効率の学習における等値性と不変性の大きな可能性を検証した。
コードはhttps://github.com/Wangt-CN/EqInvで入手できる。
関連論文リスト
- Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - The Implicit Bias of Heterogeneity towards Invariance: A Study of Multi-Environment Matrix Sensing [9.551225697705199]
本稿では,不均一なデータに対するグラディエント・ディキセント(SGD)の暗黙バイアスについて検討し,その暗黙バイアスがモデル学習を不変解へと導くことを示す。
具体的には、各環境において、信号が(i)全環境間で共有される低ランク不変部分と(ii)環境依存のスプリアス成分とを含む多環境低ランク行列センシング問題について理論的に検討する。
重要な洞察は、明示的な正規化を伴わずに各環境で大きなステップサイズの大バッチSGDを逐次使用するだけで、不均一性に起因する振動は、モデル学習の急激なシグナルを確実に阻止することができることである。
論文 参考訳(メタデータ) (2024-03-03T07:38:24Z) - Effect-Invariant Mechanisms for Policy Generalization [3.701112941066256]
不変条件分布を利用して、目に見えない環境をより一般化するモデルを学ぶことが提案されている。
効果不変性(英語版)と呼ばれる完全な不変性の緩和を導入し、ゼロショットポリシーの一般化には適切な仮定の下で十分であることを示す。
シミュレーションデータと移動体保健介入データセットを用いて実験結果を提示し,本手法の有効性を実証した。
論文 参考訳(メタデータ) (2023-06-19T14:50:24Z) - Feature-Level Debiased Natural Language Understanding [86.8751772146264]
既存の自然言語理解(NLU)モデルは、特定のデータセットで高いパフォーマンスを達成するために、データセットバイアスに依存することが多い。
本稿では, バイアスの潜在特性を緩和し, バイアスの動的性質を無視するために, DCT(Debiasing contrastive learning)を提案する。
DCTは、ディストリビューション内のパフォーマンスを維持しながら、アウトオブディストリビューションデータセットの最先端のベースラインを上回ります。
論文 参考訳(メタデータ) (2022-12-11T06:16:14Z) - On the Strong Correlation Between Model Invariance and Generalization [54.812786542023325]
一般化は、見えないデータを分類するモデルの能力をキャプチャする。
不変性はデータの変換におけるモデル予測の一貫性を測定する。
データセット中心の視点から、あるモデルの精度と不変性は異なるテストセット上で線形に相関している。
論文 参考訳(メタデータ) (2022-07-14T17:08:25Z) - Agree to Disagree: Diversity through Disagreement for Better
Transferability [54.308327969778155]
本稿では,D-BAT(Diversity-By-dis-Agreement Training)を提案する。
我々は、D-BATが一般化された相違の概念から自然に現れることを示す。
論文 参考訳(メタデータ) (2022-02-09T12:03:02Z) - Improving Contrastive Learning on Imbalanced Seed Data via Open-World
Sampling [96.8742582581744]
我々は、Model-Aware K-center (MAK)と呼ばれるオープンワールドなラベルなしデータサンプリングフレームワークを提案する。
MAKは、尾性、近接性、多様性の3つの単純な原則に従う。
我々はMAKが学習した機能の全体的な表現品質とクラスバランス性の両方を継続的に改善できることを実証した。
論文 参考訳(メタデータ) (2021-11-01T15:09:41Z) - Memorizing without overfitting: Bias, variance, and interpolation in
over-parameterized models [0.0]
バイアス分散トレードオフは教師あり学習における中心的な概念である。
現代のDeep Learningメソッドは、最先端のパフォーマンスを達成するために、このドグマを浮かび上がらせる。
論文 参考訳(メタデータ) (2020-10-26T22:31:04Z) - What causes the test error? Going beyond bias-variance via ANOVA [21.359033212191218]
現代の機械学習手法は、しばしば過度にパラメータ化され、細かいレベルでのデータへの適応を可能にする。
最近の研究は、なぜ過度なパラメータ化が一般化に役立つのかをより深く理解することを目的としている。
本研究では, 差分解析(ANOVA)を用いて, テスト誤差の分散を対称的に分解する手法を提案する。
論文 参考訳(メタデータ) (2020-10-11T05:21:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。