論文の概要: A Brief Review of Domain Adaptation
- arxiv url: http://arxiv.org/abs/2010.03978v1
- Date: Wed, 7 Oct 2020 07:05:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 22:37:42.626507
- Title: A Brief Review of Domain Adaptation
- Title(参考訳): ドメイン適応の簡単なレビュー
- Authors: Abolfazl Farahani, Sahar Voghoei, Khaled Rasheed, Hamid R. Arabnia
- Abstract要約: 本稿では、ラベルがソースドメインでのみ利用可能となる、教師なしドメイン適応に焦点を当てる。
ドメイン適応問題に対処することを目的とした、浅層および深層ドメイン適応アプローチが成功している。
- 参考スコア(独自算出の注目度): 1.2043574473965317
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Classical machine learning assumes that the training and test sets come from
the same distributions. Therefore, a model learned from the labeled training
data is expected to perform well on the test data. However, This assumption may
not always hold in real-world applications where the training and the test data
fall from different distributions, due to many factors, e.g., collecting the
training and test sets from different sources, or having an out-dated training
set due to the change of data over time. In this case, there would be a
discrepancy across domain distributions, and naively applying the trained model
on the new dataset may cause degradation in the performance. Domain adaptation
is a sub-field within machine learning that aims to cope with these types of
problems by aligning the disparity between domains such that the trained model
can be generalized into the domain of interest. This paper focuses on
unsupervised domain adaptation, where the labels are only available in the
source domain. It addresses the categorization of domain adaptation from
different viewpoints. Besides, It presents some successful shallow and deep
domain adaptation approaches that aim to deal with domain adaptation problems.
- Abstract(参考訳): 古典的な機械学習は、トレーニングとテストセットは同じ分布から来ていると仮定する。
したがって,ラベル付きトレーニングデータから学習したモデルは,テストデータに対して良好に動作することが期待される。
しかし、この仮定は、例えば異なるソースからトレーニングとテストセットを収集したり、データの変化によって時代遅れになったトレーニングセットを持つなど、トレーニングとテストデータが異なる分布から落ちる現実世界のアプリケーションでは必ずしも成り立たない。
この場合、ドメインのディストリビューション間で不一致が生じ、新しいデータセットにトレーニングされたモデルを適用するとパフォーマンスが低下する可能性がある。
ドメイン適応は機械学習のサブフィールドであり、訓練されたモデルが関心領域に一般化できるようなドメイン間の格差を整合させることによって、この種の問題に対処することを目的としている。
本稿では,ラベルがソースドメイン内でのみ使用可能な,教師なしドメイン適応に着目した。
それは異なる視点からドメイン適応の分類に対処する。
さらに、ドメイン適応問題への対処を目的とした浅層および深層ドメイン適応アプローチが成功している。
関連論文リスト
- SALUDA: Surface-based Automotive Lidar Unsupervised Domain Adaptation [62.889835139583965]
我々は、ソースデータとターゲットデータに基づいて、暗黙の基盤となる表面表現を同時に学習する教師なし補助タスクを導入する。
両方のドメインが同じ遅延表現を共有しているため、モデルは2つのデータソース間の不一致を許容せざるを得ない。
実験の結果,本手法は実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-
論文 参考訳(メタデータ) (2023-04-06T17:36:23Z) - Improving Domain Generalization with Domain Relations [77.63345406973097]
本稿では、モデルがトレーニングされたドメインと異なる新しいドメインに適用されたときに発生するドメインシフトに焦点を当てる。
ドメイン固有モデルを学習するためのD$3$Gという新しい手法を提案する。
以上の結果から,D$3$Gは最先端の手法より一貫して優れていた。
論文 参考訳(メタデータ) (2023-02-06T08:11:16Z) - Self-balanced Learning For Domain Generalization [64.99791119112503]
ドメインの一般化は、モデルが未知の統計を持つ対象のドメインに一般化できるように、マルチドメインのソースデータの予測モデルを学ぶことを目的としている。
既存のアプローチのほとんどは、ソースデータがドメインとクラスの両方の観点からバランスよく調整されているという前提の下で開発されている。
本稿では,多領域ソースデータの分布の違いによるバイアスを軽減するために,損失の重み付けを適応的に学習する自己均衡型領域一般化フレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-31T03:17:54Z) - Domain Generalization via Gradient Surgery [5.38147998080533]
現実のアプリケーションでは、マシンラーニングモデルは、トレーニングとテストドメイン間のデータ分散の変化があるシナリオに直面します。
本研究では,ドメインシフトのシナリオに現れる矛盾する勾配を特徴付けるとともに,新たな勾配合意戦略を考案する。
論文 参考訳(メタデータ) (2021-08-03T16:49:25Z) - VisDA-2021 Competition Universal Domain Adaptation to Improve
Performance on Out-of-Distribution Data [64.91713686654805]
Visual Domain Adaptation (VisDA) 2021コンペティションは、新しいテストディストリビューションに適応するモデルの能力をテストする。
我々は,新しい視点,背景,モダリティ,品質劣化への適応性を評価する。
厳密なプロトコルを使用してパフォーマンスを計測し、最先端のドメイン適応手法と比較する。
論文 参考訳(メタデータ) (2021-07-23T03:21:51Z) - f-Domain-Adversarial Learning: Theory and Algorithms [82.97698406515667]
教師なしのドメイン適応は、トレーニング中、ターゲットドメイン内のラベルなしデータにアクセス可能な、多くの機械学習アプリケーションで使用されている。
領域適応のための新しい一般化法を導出し、f-発散体の変分的特徴に基づく分布間の相違性の新しい尺度を利用する。
論文 参考訳(メタデータ) (2021-06-21T18:21:09Z) - Domain Impression: A Source Data Free Domain Adaptation Method [27.19677042654432]
教師なしドメイン適応法は、ソースデータセットがすべてのラベルで利用可能であると仮定して、ラベルなしのターゲットセットの適応問題を解決する。
本稿では,ソースデータを必要としないドメイン適応手法を提案する。
ソースデータの代わりに、ソースデータに基づいてトレーニングされた分類器のみを提供しています。
論文 参考訳(メタデータ) (2021-02-17T19:50:49Z) - Adaptive Risk Minimization: Learning to Adapt to Domain Shift [109.87561509436016]
ほとんどの機械学習アルゴリズムの基本的な前提は、トレーニングとテストデータは、同じ基礎となる分布から引き出されることである。
本研究では,学習データをドメインに構造化し,複数のテスト時間シフトが存在する場合の領域一般化の問題点について考察する。
本稿では、適応リスク最小化(ARM)の枠組みを紹介し、モデルがトレーニング領域に適応することを学ぶことで、効果的な適応のために直接最適化される。
論文 参考訳(メタデータ) (2020-07-06T17:59:30Z) - Incremental Unsupervised Domain-Adversarial Training of Neural Networks [17.91571291302582]
教師付き統計学習の文脈では通常、トレーニングセットはテストサンプルを描画する同じ分布から来ていると仮定される。
ここでは、モデルが新しいドメインに反復的に適応される段階的な視点から、別の道を選び、問題にアプローチします。
その結果,いくつかのデータセットにおける非増加事例に対する明らかな改善が報告され,他の最先端のドメイン適応アルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2020-01-13T09:54:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。