論文の概要: Equivariant Disentangled Transformation for Domain Generalization under
Combination Shift
- arxiv url: http://arxiv.org/abs/2208.02011v1
- Date: Wed, 3 Aug 2022 12:31:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-04 13:58:38.341673
- Title: Equivariant Disentangled Transformation for Domain Generalization under
Combination Shift
- Title(参考訳): 結合シフト下での領域一般化のための同変不等角変換
- Authors: Yivan Zhang, Jindong Wang, Xing Xie, Masashi Sugiyama
- Abstract要約: ドメインとラベルの組み合わせは、トレーニング中に観察されるのではなく、テスト環境に現れる。
我々は、同型の概念、同値性、および整合性の定義に基づく結合シフト問題の一意的な定式化を提供する。
- 参考スコア(独自算出の注目度): 91.38796390449504
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning systems may encounter unexpected problems when the data
distribution changes in the deployment environment. A major reason is that
certain combinations of domains and labels are not observed during training but
appear in the test environment. Although various invariance-based algorithms
can be applied, we find that the performance gain is often marginal. To
formally analyze this issue, we provide a unique algebraic formulation of the
combination shift problem based on the concepts of homomorphism, equivariance,
and a refined definition of disentanglement. The algebraic requirements
naturally derive a simple yet effective method, referred to as equivariant
disentangled transformation (EDT), which augments the data based on the
algebraic structures of labels and makes the transformation satisfy the
equivariance and disentanglement requirements. Experimental results demonstrate
that invariance may be insufficient, and it is important to exploit the
equivariance structure in the combination shift problem.
- Abstract(参考訳): 機械学習システムは、デプロイメント環境でデータ分散が変化すると予期せぬ問題に遭遇する可能性がある。
主な理由は、トレーニング中にドメインとラベルの組み合わせが観察されず、テスト環境に現れるためである。
様々な不変性に基づくアルゴリズムが適用できるが、性能向上はしばしば限界となる。
この問題を形式的に解析するために,準同型,等分散,不等角性の洗練された定義に基づく組合せシフト問題の一意な代数的定式化を提案する。
代数的要求は、ラベルの代数的構造に基づくデータを強化し、その変換が等分散および不等角化要求を満たすようにする同変不等角変換 (equivariant disentangled transformation, edt) と呼ばれる、単純かつ効果的な手法を自然に導出する。
実験の結果,不変性は不十分である可能性があり,組み合わせシフト問題において等分散構造を利用することが重要であることがわかった。
関連論文リスト
- Equivariant score-based generative models provably learn distributions with symmetries efficiently [7.90752151686317]
実験的な研究により、対称性を生成モデルに組み込むことで、より優れた一般化とサンプリング効率が得られることが示されている。
我々は,ある群対称性に対して不変な分布を学習するためのスコアベース生成モデル(SGM)の最初の理論的解析と保証を提供する。
論文 参考訳(メタデータ) (2024-10-02T05:14:28Z) - Almost Equivariance via Lie Algebra Convolutions [0.0]
ほぼ同値の定義を提供し、それをモデルで符号化する実践的な方法を与える。
具体的には、リー代数の畳み込みを定義し、それらがリー群畳み込みに対していくつかの利点を提供することを示す。
2つの存在定理を証明し、1つは多様体の等距離の有界距離におけるほぼ等距離の存在を示し、もう1つはヒルベルト空間の逆を示す。
論文 参考訳(メタデータ) (2023-10-19T21:31:11Z) - Banana: Banach Fixed-Point Network for Pointcloud Segmentation with
Inter-Part Equivariance [31.875925637190328]
本稿では、構成による部分的等式を持つ同変セグメンテーションのためのバナハ不動点ネットワークであるバナナについて述べる。
我々の重要な洞察は、ポイント・パートの割り当てラベルとパー・パートのSE(3)-等分散が同時に共進化する固定点問題を反復的に解決することである。
我々の定式化は自然に部分間等式を厳密に定義し、部分間配置に一般化する。
論文 参考訳(メタデータ) (2023-05-25T17:59:32Z) - Self-Supervised Learning for Group Equivariant Neural Networks [75.62232699377877]
群同変ニューラルネットワーク(英: Group equivariant Neural Network)は、入力の変換で通勤する構造に制限されたモデルである。
自己教師型タスクには、同変プリテキストラベルと異変コントラスト損失という2つの概念を提案する。
標準画像認識ベンチマークの実験では、同変ニューラルネットワークが提案された自己教師型タスクを利用することを示した。
論文 参考訳(メタデータ) (2023-03-08T08:11:26Z) - Predicting Out-of-Domain Generalization with Neighborhood Invariance [59.05399533508682]
局所変換近傍における分類器の出力不変性の尺度を提案する。
私たちの測度は計算が簡単で、テストポイントの真のラベルに依存しません。
画像分類,感情分析,自然言語推論のベンチマーク実験において,我々の測定値と実際のOOD一般化との間に強い相関関係を示す。
論文 参考訳(メタデータ) (2022-07-05T14:55:16Z) - Relaxing Equivariance Constraints with Non-stationary Continuous Filters [20.74154804898478]
提案したパラメータ化は、ニューラルネットワークの調整可能な対称性構造を可能にするビルディングブロックと考えることができる。
CIFAR-10 および CIFAR-100 画像分類タスクにおいて, ソフトな等式が試験精度の向上につながることを実験的に検証した。
論文 参考訳(メタデータ) (2022-04-14T18:08:36Z) - Equivariance Discovery by Learned Parameter-Sharing [153.41877129746223]
データから解釈可能な等価性を発見する方法について検討する。
具体的には、モデルのパラメータ共有方式に対する最適化問題として、この発見プロセスを定式化する。
また,ガウスデータの手法を理論的に解析し,研究された発見スキームとオラクルスキームの間の平均2乗ギャップを限定する。
論文 参考訳(メタデータ) (2022-04-07T17:59:19Z) - Commutative Lie Group VAE for Disentanglement Learning [96.32813624341833]
本研究では,データに表される因子の変動を同変的に反映する基盤構造を見いだすこととして,非絡み合い学習を考察する。
グループベースの非絡み合い学習を実現するために、Communative Lie Group VAEというシンプルなモデルが導入された。
実験により,本モデルでは,教師なしの非絡み合い表現を効果的に学習し,余分な制約を伴わずに最先端のパフォーマンスを達成できることが示されている。
論文 参考訳(メタデータ) (2021-06-07T07:03:14Z) - Generalizing Convolutional Neural Networks for Equivariance to Lie
Groups on Arbitrary Continuous Data [52.78581260260455]
任意の特定のリー群からの変換に同値な畳み込み層を構築するための一般的な方法を提案する。
同じモデルアーキテクチャを画像、ボール・アンド・スティック分子データ、ハミルトン力学系に適用する。
論文 参考訳(メタデータ) (2020-02-25T17:40:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。