論文の概要: Domain Generalization using Ensemble Learning
- arxiv url: http://arxiv.org/abs/2103.10257v1
- Date: Thu, 18 Mar 2021 13:50:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-19 14:10:55.171530
- Title: Domain Generalization using Ensemble Learning
- Title(参考訳): アンサンブル学習を用いたドメイン一般化
- Authors: Yusuf Mesbah, Youssef Youssry Ibrahim, Adil Mehood Khan
- Abstract要約: モデルが単一ソースドメインでトレーニングされる場合、モデルの弱い一般化の問題に対処する。
この観点から,単一ソース上で訓練されたベースディープラーニングモデルに基づいてアンサンブルモデルを構築し,その集合予測の一般化を促進する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain generalization is a sub-field of transfer learning that aims at
bridging the gap between two different domains in the absence of any knowledge
about the target domain. Our approach tackles the problem of a model's weak
generalization when it is trained on a single source domain. From this
perspective, we build an ensemble model on top of base deep learning models
trained on a single source to enhance the generalization of their collective
prediction. The results achieved thus far have demonstrated promising
improvements of the ensemble over any of its base learners.
- Abstract(参考訳): ドメイン一般化(Domain Generalization)は、ターゲットドメインに関する知識がなければ、2つの異なるドメイン間のギャップを埋めることを目的とした、転送学習のサブフィールドである。
提案手法は,モデルが単一ソース領域でトレーニングされる場合,モデルの弱い一般化の問題に対処する。
この観点から,単一ソース上で訓練されたベースディープラーニングモデルに基づいてアンサンブルモデルを構築し,その集合予測の一般化を促進する。
これまでの成果は、すべての基礎学習者に対するアンサンブルの有望な改善を実証している。
関連論文リスト
- Domain Expansion and Boundary Growth for Open-Set Single-Source Domain Generalization [70.02187124865627]
オープンソースの単一ソースドメインの一般化は、単一のソースドメインを使用して、未知のターゲットドメインに一般化可能な堅牢なモデルを学ぶことを目的としている。
本稿では,領域拡大と境界成長に基づく新しい学習手法を提案する。
提案手法は,いくつかの領域横断画像分類データセットにおいて,大幅な改善と最先端性能を実現することができる。
論文 参考訳(メタデータ) (2024-11-05T09:08:46Z) - Meta-causal Learning for Single Domain Generalization [102.53303707563612]
単一ドメインの一般化は、単一のトレーニングドメイン(ソースドメイン)からモデルを学び、それを複数の未確認テストドメイン(ターゲットドメイン)に適用することを目的としている。
既存の方法は、ターゲットドメインをカバーするためのトレーニングドメインの配布拡大に重点を置いているが、ソースとターゲットドメイン間のドメインシフトを見積もることはできない。
そこで本研究では,まず,対象ドメインとして補助ドメインを構築することによってドメインシフトをシミュレートし,ドメインシフトの原因を解析し,最終的にモデル適応のためのドメインシフトを低減する,新たな学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-04-07T15:46:38Z) - Not to Overfit or Underfit? A Study of Domain Generalization in Question
Answering [18.22045610080848]
機械学習モデルは、ソース(トレーニング)の分布を過度に適合させる傾向がある。
本稿では、マルチソース領域一般化(DG)は、実際に、ソースドメインの未適合性を緩和する問題である、という対照的な見解を考察する。
論文 参考訳(メタデータ) (2022-05-15T10:53:40Z) - An attention model for the formation of collectives in real-world
domains [78.1526027174326]
本研究では,サステナブル開発目標に沿った実世界のアプリケーションにエージェントの集合を形成することの問題点を考察する。
本稿では,注目モデルと整数線形プログラムの新たな組み合わせに基づく集合形成のための一般的な手法を提案する。
論文 参考訳(メタデータ) (2022-04-30T09:15:36Z) - Compound Domain Generalization via Meta-Knowledge Encoding [55.22920476224671]
マルチモーダル分布を再正規化するために,スタイル駆動型ドメイン固有正規化(SDNorm)を導入する。
組込み空間における関係モデリングを行うために,プロトタイプ表現,クラスセントロイドを利用する。
4つの標準ドメイン一般化ベンチマークの実験により、COMENはドメインの監督なしに最先端のパフォーマンスを上回ることが判明した。
論文 参考訳(メタデータ) (2022-03-24T11:54:59Z) - Domain Generalization by Mutual-Information Regularization with
Pre-trained Models [20.53534134966378]
ドメイン一般化(DG)は、限られたソースドメインのみを使用して、見えないターゲットドメインに一般化されたモデルを学習することを目的としている。
我々は、任意の可能な領域に一般化されたモデルであるオラクルモデルとの相互情報を用いて、DGの目的を再定式化する。
実験の結果, Oracle (MIRO) による相互情報正規化は, アウト・オブ・ディストリビューション性能を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2022-03-21T08:07:46Z) - Self-balanced Learning For Domain Generalization [64.99791119112503]
ドメインの一般化は、モデルが未知の統計を持つ対象のドメインに一般化できるように、マルチドメインのソースデータの予測モデルを学ぶことを目的としている。
既存のアプローチのほとんどは、ソースデータがドメインとクラスの両方の観点からバランスよく調整されているという前提の下で開発されている。
本稿では,多領域ソースデータの分布の違いによるバイアスを軽減するために,損失の重み付けを適応的に学習する自己均衡型領域一般化フレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-31T03:17:54Z) - Discriminative Domain-Invariant Adversarial Network for Deep Domain
Generalization [33.84004077585957]
本稿では,ドメイン一般化のための識別型ドメイン不変逆数ネットワーク(DDIAN)を提案する。
DDIANは、最先端のドメイン一般化アプローチと比較して、トレーニング中の未確認対象データに対するより良い予測を実現している。
論文 参考訳(メタデータ) (2021-08-20T04:24:12Z) - Learning to Learn with Variational Information Bottleneck for Domain
Generalization [128.90691697063616]
ドメイン一般化モデルは、これまで見つからなかった領域に一般化することを学ぶが、予測の不確実性とドメインシフトに悩まされる。
ドメイン一般化のための確率論的メタラーニングモデルを導入し、ドメイン間で共有されるパラメータを分布としてモデル化する。
ドメインシフトに対処するため、メタ変動情報ボトルネックという提案原則を用いてドメイン不変表現を学習し、メタVIBと呼ぶ。
論文 参考訳(メタデータ) (2020-07-15T12:05:52Z) - Learning to Learn Single Domain Generalization [18.72451358284104]
本稿では,このアウト・オブ・ディストリビューション(OOD)一般化問題を解くために,逆領域拡張という新しい手法を提案する。
鍵となる考え方は、敵の訓練を活用して「現実的」だが「混み合う」人口を作り出すことである。
高速で望ましいドメイン拡張を容易にするため、メタラーニング方式でモデルトレーニングを行い、Wasserstein Auto-Encoder (WAE) を用いて、広く使われている最悪のケース制約を緩和する。
論文 参考訳(メタデータ) (2020-03-30T04:39:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。