論文の概要: Self-balanced Learning For Domain Generalization
- arxiv url: http://arxiv.org/abs/2108.13597v1
- Date: Tue, 31 Aug 2021 03:17:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-01 14:40:35.520346
- Title: Self-balanced Learning For Domain Generalization
- Title(参考訳): ドメイン一般化のための自己均衡学習
- Authors: Jin Kim, Jiyoung Lee, Jungin Park, Dongbo Min, Kwanghoon Sohn
- Abstract要約: ドメインの一般化は、モデルが未知の統計を持つ対象のドメインに一般化できるように、マルチドメインのソースデータの予測モデルを学ぶことを目的としている。
既存のアプローチのほとんどは、ソースデータがドメインとクラスの両方の観点からバランスよく調整されているという前提の下で開発されている。
本稿では,多領域ソースデータの分布の違いによるバイアスを軽減するために,損失の重み付けを適応的に学習する自己均衡型領域一般化フレームワークを提案する。
- 参考スコア(独自算出の注目度): 64.99791119112503
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain generalization aims to learn a prediction model on multi-domain source
data such that the model can generalize to a target domain with unknown
statistics. Most existing approaches have been developed under the assumption
that the source data is well-balanced in terms of both domain and class.
However, real-world training data collected with different composition biases
often exhibits severe distribution gaps for domain and class, leading to
substantial performance degradation. In this paper, we propose a self-balanced
domain generalization framework that adaptively learns the weights of losses to
alleviate the bias caused by different distributions of the multi-domain source
data. The self-balanced scheme is based on an auxiliary reweighting network
that iteratively updates the weight of loss conditioned on the domain and class
information by leveraging balanced meta data. Experimental results demonstrate
the effectiveness of our method overwhelming state-of-the-art works for domain
generalization.
- Abstract(参考訳): ドメインの一般化は、モデルが未知の統計量を持つ対象領域に一般化できるような、マルチドメインのソースデータに対する予測モデルを学ぶことを目的としている。
既存のアプローチの多くは、ソースデータがドメインとクラスの両方でバランスが取れているという仮定の下で開発されている。
しかし、異なる構成バイアスで収集された実世界のトレーニングデータは、しばしばドメインとクラスに厳しい分散ギャップを示し、パフォーマンスが大幅に低下する。
本稿では,損失の重みを適応的に学習し,マルチドメインソースデータの分布の違いによるバイアスを軽減する自己均衡型ドメイン一般化フレームワークを提案する。
自己均衡スキームは、バランスのとれたメタデータを利用して、ドメインとクラス情報に基づいて条件付けされた損失の重みを反復的に更新する補助的重み付けネットワークに基づいている。
実験により,本手法がドメイン一般化に有効であることを示す。
関連論文リスト
- Non-stationary Domain Generalization: Theory and Algorithm [11.781050299571692]
本稿では,非定常環境における領域一般化について検討する。
まず,環境非定常性がモデル性能に及ぼす影響について検討する。
そこで我々は適応不変表現学習に基づく新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-10T21:32:43Z) - Improving Domain Generalization with Domain Relations [77.63345406973097]
本稿では、モデルがトレーニングされたドメインと異なる新しいドメインに適用されたときに発生するドメインシフトに焦点を当てる。
ドメイン固有モデルを学習するためのD$3$Gという新しい手法を提案する。
以上の結果から,D$3$Gは最先端の手法より一貫して優れていた。
論文 参考訳(メタデータ) (2023-02-06T08:11:16Z) - Algorithms and Theory for Supervised Gradual Domain Adaptation [19.42476993856205]
本研究では, 学習者に対して, 学習経路に沿った変化分布からラベル付きデータを利用できるようにするための, 教師付き段階的領域適応の課題について検討する。
この設定の下では、軽度な仮定の下で学習誤差に関する最初の一般化上限を提供する。
本研究の結果は, 損失関数の範囲に依存しないアルゴリズムであり, 軌道上の平均学習誤差にのみ依存する。
論文 参考訳(メタデータ) (2022-04-25T13:26:11Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Towards Data-Free Domain Generalization [12.269045654957765]
異なるソースデータドメインでトレーニングされたモデルに含まれる知識は、どのようにして単一のモデルにマージされるのか?
以前のドメインの一般化手法は、典型的にはソースドメインデータの使用に依存しており、プライベートな分散データには適さない。
DeKANは、利用可能な教師モデルからドメイン固有の知識を抽出し、融合し、ドメインシフトに頑健な学生モデルに変換するアプローチである。
論文 参考訳(メタデータ) (2021-10-09T11:44:05Z) - Fishr: Invariant Gradient Variances for Out-of-distribution
Generalization [98.40583494166314]
フィッシャーは、損失関数の勾配の空間における領域不変性を強制する学習スキームである。
フィッシャーはこの損失についてフィッシャー・インフォメーションやヘッセンと密接な関係を示している。
特に、FishrはDomainBedベンチマークのテクニックの状態を改善し、経験的リスク最小化よりも大幅にパフォーマンスが向上する。
論文 参考訳(メタデータ) (2021-09-07T08:36:09Z) - Domain Conditional Predictors for Domain Adaptation [3.951376400628575]
本稿では,入力データに依存することに加えて,基礎となるデータ生成分布に対する情報を利用する条件付きモデリング手法を検討する。
このようなアプローチは、現在のドメイン適応手法よりも一般的に適用可能であると論じる。
論文 参考訳(メタデータ) (2021-06-25T22:15:54Z) - f-Domain-Adversarial Learning: Theory and Algorithms [82.97698406515667]
教師なしのドメイン適応は、トレーニング中、ターゲットドメイン内のラベルなしデータにアクセス可能な、多くの機械学習アプリケーションで使用されている。
領域適応のための新しい一般化法を導出し、f-発散体の変分的特徴に基づく分布間の相違性の新しい尺度を利用する。
論文 参考訳(メタデータ) (2021-06-21T18:21:09Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。