論文の概要: Gated Domain Units for Multi-source Domain Generalization
- arxiv url: http://arxiv.org/abs/2206.12444v2
- Date: Tue, 16 May 2023 14:32:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-17 19:54:45.837659
- Title: Gated Domain Units for Multi-source Domain Generalization
- Title(参考訳): マルチソースドメイン一般化のためのゲーテッドドメインユニット
- Authors: Simon F\"oll, Alina Dubatovka, Eugen Ernst, Siu Lun Chau, Martin
Maritsch, Patrik Okanovic, Gudrun Th\"ater, Joachim M. Buhmann, Felix
Wortmann, Krikamol Muandet
- Abstract要約: 分散シフト(DS)は、テスト時のデータセットとトレーニング時のデータセットが異なる場合に発生する。
GDU(Gated Domain Units)で構成されるモジュール型ニューラルネットワークレイヤを導入し,各潜伏する基本分布の表現を学習する。
推論中、各基本分布の表現と新しい観測結果を比較することで、重み付けされた学習機械のアンサンブルを作成することができる。
- 参考スコア(独自算出の注目度): 14.643490853965385
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The phenomenon of distribution shift (DS) occurs when a dataset at test time
differs from the dataset at training time, which can significantly impair the
performance of a machine learning model in practical settings due to a lack of
knowledge about the data's distribution at test time. To address this problem,
we postulate that real-world distributions are composed of latent Invariant
Elementary Distributions (I.E.D) across different domains. This assumption
implies an invariant structure in the solution space that enables knowledge
transfer to unseen domains. To exploit this property for domain generalization,
we introduce a modular neural network layer consisting of Gated Domain Units
(GDUs) that learn a representation for each latent elementary distribution.
During inference, a weighted ensemble of learning machines can be created by
comparing new observations with the representations of each elementary
distribution. Our flexible framework also accommodates scenarios where explicit
domain information is not present. Extensive experiments on image, text, and
graph data show consistent performance improvement on out-of-training target
domains. These findings support the practicality of the I.E.D assumption and
the effectiveness of GDUs for domain generalisation.
- Abstract(参考訳): 分散シフト(DS)現象は、テスト時のデータセットがトレーニング時のデータセットと異なる場合に起こり、テスト時のデータの分布に関する知識が不足しているため、実践的な環境での機械学習モデルのパフォーマンスを著しく損なう可能性がある。
この問題に対処するために、実世界の分布は異なる領域にまたがる潜在不変な初等分布(すなわちd)からなると仮定する。
この仮定は、未知の領域への知識移動を可能にする解空間の不変構造を意味する。
この特性をドメインの一般化に活用するために,各潜在初等分布の表現を学習するgated domain unit (gdus)からなるモジュール型ニューラルネットワーク層を導入する。
推論の間、新しい観察と各初等分布の表現を比較することで学習機械の重み付けアンサンブルを作成することができる。
私たちの柔軟なフレームワークは、明示的なドメイン情報が存在しないシナリオも対応しています。
画像、テキスト、グラフデータに対する大規模な実験は、トレーニング対象領域における一貫したパフォーマンス改善を示す。
これらの知見は、I.E.D仮定の実用性と領域一般化におけるGDUの有効性を裏付けるものである。
関連論文リスト
- Non-stationary Domain Generalization: Theory and Algorithm [11.781050299571692]
本稿では,非定常環境における領域一般化について検討する。
まず,環境非定常性がモデル性能に及ぼす影響について検討する。
そこで我々は適応不変表現学習に基づく新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-10T21:32:43Z) - DIGIC: Domain Generalizable Imitation Learning by Causal Discovery [69.13526582209165]
因果性は機械学習と組み合わせて、ドメインの一般化のための堅牢な表現を生成する。
我々は、実証データ分布を活用して、ドメインの一般化可能なポリシーの因果的特徴を発見するために、異なる試みを行っている。
DIGICと呼ばれる新しいフレームワークを設計し、実演データ分布から専門家行動の直接的な原因を見出すことにより因果的特徴を識別する。
論文 参考訳(メタデータ) (2024-02-29T07:09:01Z) - Multi-Domain Causal Representation Learning via Weak Distributional
Invariances [27.72497122405241]
因果表現学習は因果機械学習研究における行動の中心として現れてきた。
このような不変性を組み込んだオートエンコーダは、他の部分から異なる設定で安定なラテントの集合を確実に特定できることを示す。
論文 参考訳(メタデータ) (2023-10-04T14:41:41Z) - Improving Domain Generalization with Domain Relations [77.63345406973097]
本稿では、モデルがトレーニングされたドメインと異なる新しいドメインに適用されたときに発生するドメインシフトに焦点を当てる。
ドメイン固有モデルを学習するためのD$3$Gという新しい手法を提案する。
以上の結果から,D$3$Gは最先端の手法より一貫して優れていた。
論文 参考訳(メタデータ) (2023-02-06T08:11:16Z) - Towards Generalization on Real Domain for Single Image Dehazing via
Meta-Learning [41.99615673136883]
合成画像から得られた内部情報は、通常、実際の領域では準最適である。
本稿では,メタラーニングに基づくドメイン一般化フレームワークを提案する。
提案手法は,最先端の競争相手よりも優れた一般化能力を有する。
論文 参考訳(メタデータ) (2022-11-14T07:04:00Z) - AFAN: Augmented Feature Alignment Network for Cross-Domain Object
Detection [90.18752912204778]
オブジェクト検出のための教師なしドメイン適応は、多くの現実世界のアプリケーションにおいて難しい問題である。
本稿では、中間領域画像生成とドメイン・アドバイザリー・トレーニングを統合した新しい機能アライメント・ネットワーク(AFAN)を提案する。
提案手法は、類似および異種ドメイン適応の双方において、標準ベンチマークにおける最先端の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2021-06-10T05:01:20Z) - Inferring Latent Domains for Unsupervised Deep Domain Adaptation [54.963823285456925]
Unsupervised Domain Adaptation (UDA)は、ラベル付きデータが利用できないターゲットドメインでモデルを学習する問題を指す。
本稿では,視覚データセット中の潜在ドメインを自動的に発見することにより,udaの問題に対処する新しい深層アーキテクチャを提案する。
提案手法を公開ベンチマークで評価し,最先端のドメイン適応手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-03-25T14:33:33Z) - Robust Domain-Free Domain Generalization with Class-aware Alignment [4.442096198968069]
ドメインフリードメイン一般化(DFDG)は、目に見えないテストドメインでより良い一般化性能を実現するモデル非依存の方法である。
DFDGは新しい戦略を用いてドメイン不変なクラス差別的特徴を学習する。
時系列センサと画像分類公開データセットの両方で競合性能を得る。
論文 参考訳(メタデータ) (2021-02-17T17:46:06Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z) - Dual Distribution Alignment Network for Generalizable Person
Re-Identification [174.36157174951603]
ドメイン一般化(DG)は、人物再識別(Re-ID)を扱うための有望なソリューションとして機能する
本稿では、複数のソースドメインの分布を選択的に整列させることにより、この問題に対処するDual Distribution Alignment Network(DDAN)を提案する。
大規模なDomain Generalization Re-ID(DG Re-ID)ベンチマークでDDANを評価した。
論文 参考訳(メタデータ) (2020-07-27T00:08:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。