論文の概要: Domain Generalization In Robust Invariant Representation
- arxiv url: http://arxiv.org/abs/2304.03431v1
- Date: Fri, 7 Apr 2023 00:58:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-10 13:10:50.229728
- Title: Domain Generalization In Robust Invariant Representation
- Title(参考訳): ロバスト不変表現における領域一般化
- Authors: Gauri Gupta, Ritvik Kapila, Keshav Gupta, Ramesh Raskar
- Abstract要約: 本稿では,分布外データに基づく不変表現の一般化について検討する。
不変モデルは分布シフトに頑健な非構造潜在表現を学習することを示す。
- 参考スコア(独自算出の注目度): 9.17553155567103
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised approaches for learning representations invariant to common
transformations are used quite often for object recognition. Learning
invariances makes models more robust and practical to use in real-world
scenarios. Since data transformations that do not change the intrinsic
properties of the object cause the majority of the complexity in recognition
tasks, models that are invariant to these transformations help reduce the
amount of training data required. This further increases the model's efficiency
and simplifies training. In this paper, we investigate the generalization of
invariant representations on out-of-distribution data and try to answer the
question: Do model representations invariant to some transformations in a
particular seen domain also remain invariant in previously unseen domains?
Through extensive experiments, we demonstrate that the invariant model learns
unstructured latent representations that are robust to distribution shifts,
thus making invariance a desirable property for training in
resource-constrained settings.
- Abstract(参考訳): 共通変換に不変な表現を学習するための教師なしのアプローチは、オブジェクト認識によく使用される。
不変性の学習は、実世界のシナリオで使用するモデルをより堅牢で実用的なものにします。
オブジェクト固有の特性を変化させないデータ変換は、認識タスクの複雑さの大部分を引き起こすため、これらの変換に不変なモデルは、必要なトレーニングデータの量を減らすのに役立つ。
これによりモデルの効率が向上し、トレーニングが簡単になる。
本稿では, 分布外データ上の不変表現の一般化について検討し, 問題に答えようとする。 特定の出現した領域の変換に不変なモデル表現は, 以前は見つからなかった領域でも不変か?
広範な実験を通して、不変モデルは分布シフトに頑健な非構造的潜在表現を学習し、不変性は資源制約された環境でのトレーニングに望ましい特性であることを示す。
関連論文リスト
- Unsupervised Representation Learning from Sparse Transformation Analysis [79.94858534887801]
本稿では,潜在変数のスパース成分への変換を分解し,シーケンスデータから表現を学習することを提案する。
入力データは、まず潜伏活性化の分布として符号化され、その後確率フローモデルを用いて変換される。
論文 参考訳(メタデータ) (2024-10-07T23:53:25Z) - Learning Divergence Fields for Shift-Robust Graph Representations [73.11818515795761]
本研究では,相互依存データに対する問題に対して,学習可能な分散場を持つ幾何学的拡散モデルを提案する。
因果推論によって新たな学習目標が導出され、ドメイン間で無神経な相互依存の一般化可能なパターンを学習するためのモデルが導出される。
論文 参考訳(メタデータ) (2024-06-07T14:29:21Z) - Interpreting Equivariant Representations [5.325297567945828]
本稿では,同変モデルによる帰納バイアスも潜在表現を用いて考慮する必要があることを示す。
インダクティブバイアスを考慮しないと下流タスクのパフォーマンスが低下することを示す。
論文 参考訳(メタデータ) (2024-01-23T09:43:30Z) - Enhancing Evolving Domain Generalization through Dynamic Latent
Representations [47.3810472814143]
我々はMultual Information-Based Sequential Autoencoders (MISTS) と呼ばれる新しいフレームワークを提案する。
MISTSは、Mutual Information-Based Sequential Autoencoders (MISTS)と呼ばれる新しいフレームワークを通じて、動的および不変両方の機能を学ぶ
人工と実世界の両方のデータセットに対する実験結果は、MISTSが進化と不変の両方の情報を取得することに成功していることを示している。
論文 参考訳(メタデータ) (2024-01-16T16:16:42Z) - Invariant Causal Mechanisms through Distribution Matching [86.07327840293894]
本研究では、因果的視点と不変表現を学習するための新しいアルゴリズムを提供する。
実験により,このアルゴリズムは様々なタスク群でうまく動作し,特にドメインの一般化における最先端のパフォーマンスを観察する。
論文 参考訳(メタデータ) (2022-06-23T12:06:54Z) - PAC Generalization via Invariant Representations [41.02828564338047]
有限標本集合における$epsilon$-approximate不変性の概念を考える。
PAC学習にインスパイアされ、有限サンプルのアウト・オブ・ディストリビューション一般化保証を得る。
この結果から, 介入部位が非次境界ノードの一定サイズの部分集合内にある場合に, 周囲次元でスケールしない境界を示す。
論文 参考訳(メタデータ) (2022-05-30T15:50:14Z) - Out-of-distribution Generalization with Causal Invariant Transformations [17.18953986654873]
本研究では,因果的特徴を明示的に回復することなく,OOD問題に対処する。
不変因果機構の設定の下で、理論的には、そのような変換がすべて利用可能であれば、最小限の最適モデルを学ぶことができる。
これらの因果不変変換の完全な集合が非現実的であることを知ることは、これらの変換のサブセットのみを知るのに十分であることを示す。
論文 参考訳(メタデータ) (2022-03-22T08:04:38Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z) - Staying in Shape: Learning Invariant Shape Representations using
Contrastive Learning [5.100152971410397]
既存の不変形表現の多くは手作りであり、それまでの学習的形状表現は不変形の生成に重点を置いていなかった。
提案手法は,従来の教師なし学習のap-proacheを,有効性と堅牢性の両方で性能的に向上することを示した。
論文 参考訳(メタデータ) (2021-07-08T00:53:24Z) - Exploring Complementary Strengths of Invariant and Equivariant
Representations for Few-Shot Learning [96.75889543560497]
多くの現実世界では、多数のラベル付きサンプルの収集は不可能です。
少ないショット学習はこの問題に対処するための主要なアプローチであり、目的は限られた数のサンプルの存在下で新しいカテゴリに迅速に適応することです。
幾何学的変換の一般集合に対する等分散と不変性を同時に強制する新しい訓練機構を提案する。
論文 参考訳(メタデータ) (2021-03-01T21:14:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。