論文の概要: A Primer on Domain Adaptation
- arxiv url: http://arxiv.org/abs/2001.09994v2
- Date: Tue, 11 Feb 2020 17:47:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-06 07:39:25.540730
- Title: A Primer on Domain Adaptation
- Title(参考訳): ドメイン適応に関するプライマー
- Authors: Pirmin Lemberger and Ivan Panico
- Abstract要約: 教師付き機械学習は、アルゴリズムを訓練するために使用されるソースサンプルの分布が、予測を行うはずのターゲットサンプルの1つと同じであると仮定する。
数え切れない数のメソッドと、明確で普遍的に受け入れられる用語の欠如は、しかしながら、このトピックを新参者にとっておそろしいものにすることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Standard supervised machine learning assumes that the distribution of the
source samples used to train an algorithm is the same as the one of the target
samples on which it is supposed to make predictions. However, as any data
scientist will confirm, this is hardly ever the case in practice. The set of
statistical and numerical methods that deal with such situations is known as
domain adaptation, a field with a long and rich history. The myriad of methods
available and the unfortunate lack of a clear and universally accepted
terminology can however make the topic rather daunting for the newcomer.
Therefore, rather than aiming at completeness, which leads to exhibiting a
tedious catalog of methods, this pedagogical review aims at a coherent
presentation of four important special cases: (1) prior shift, a situation in
which training samples were selected according to their labels without any
knowledge of their actual distribution in the target, (2) covariate shift which
deals with a situation where training examples were picked according to their
features but with some selection bias, (3) concept shift where the dependence
of the labels on the features defers between the source and the target, and
last but not least (4) subspace mapping which deals with a situation where
features in the target have been subjected to an unknown distortion with
respect to the source features. In each case we first build an intuition, next
we provide the appropriate mathematical framework and eventually we describe a
practical application.
- Abstract(参考訳): 標準教師付き機械学習では、アルゴリズムのトレーニングに使用されるソースサンプルの分布は、予測を行うはずのターゲットサンプルの分布と同じである、と仮定している。
しかし、どのデータサイエンティストも確認するだろうが、実際にはそうではない。
このような状況に対処する統計的および数値的な手法の集合は、長い歴史を持つ分野である領域適応として知られている。
数え切れない数のメソッドと、明確で普遍的に受け入れられる用語の欠如は、しかしながら、このトピックを新参者にとっておそろしいものにすることができる。
Therefore, rather than aiming at completeness, which leads to exhibiting a tedious catalog of methods, this pedagogical review aims at a coherent presentation of four important special cases: (1) prior shift, a situation in which training samples were selected according to their labels without any knowledge of their actual distribution in the target, (2) covariate shift which deals with a situation where training examples were picked according to their features but with some selection bias, (3) concept shift where the dependence of the labels on the features defers between the source and the target, and last but not least (4) subspace mapping which deals with a situation where features in the target have been subjected to an unknown distortion with respect to the source features.
それぞれのケースでまず直観を構築し、次に適切な数学的フレームワークを提供し、最終的には実践的なアプリケーションを記述する。
関連論文リスト
- Probabilistic Test-Time Generalization by Variational Neighbor-Labeling [62.158807685159736]
本稿では、ドメインの一般化を試み、モデルが未確認のターゲットドメインにデプロイされる前に、ソースドメインにのみトレーニングされる。
ソーストレーニングされたモデルをテスト時にターゲットドメインに一般化するための、ターゲットサンプルの擬似ラベル化の確率。
より堅牢な擬似ラベルを生成するために、近隣のターゲットサンプルの情報を含む変分隣接ラベル。
論文 参考訳(メタデータ) (2023-07-08T18:58:08Z) - Dual Adaptive Representation Alignment for Cross-domain Few-shot
Learning [58.837146720228226]
ベース知識から学習することで、限られたサポートサンプルを持つ新規なクエリを認識することを目的としている。
この設定の最近の進歩は、ベース知識と新しいクエリサンプルが同じドメインに分散されていることを前提としている。
本稿では,ターゲットドメインで利用可能なサンプルが極めて少ないドメイン間数ショット学習の問題に対処することを提案する。
論文 参考訳(メタデータ) (2023-06-18T09:52:16Z) - Statistical Inference Under Constrained Selection Bias [20.862583584531322]
本稿では,選択バイアスが存在する場合の統計的推測を可能にする枠組みを提案する。
出力は、目標分布に対する推定値に対する高確率境界である。
我々はこれらの境界を推定するための手法の計算的および統計的特性を分析し、これらの手法が様々なシミュレートされた半合成的なタスクに対して情報的境界を生成可能であることを示す。
論文 参考訳(メタデータ) (2023-06-05T23:05:26Z) - Learning Classifiers of Prototypes and Reciprocal Points for Universal
Domain Adaptation [79.62038105814658]
Universal Domainは、ドメインシフトとカテゴリシフトという2つのシフトを処理して、データセット間で知識を転送することを目的としている。
主な課題は、既知のクラス知識の分布をソースからターゲットに適応させながら、未知のターゲットサンプルを正しく識別することである。
既存のほとんどの手法は、まずターゲットが適応した既知の知識を訓練し、次に未知のターゲットサンプルを識別するために単一のしきい値に依存することでこの問題に対処する。
論文 参考訳(メタデータ) (2022-12-16T09:01:57Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Predicting Out-of-Domain Generalization with Neighborhood Invariance [59.05399533508682]
局所変換近傍における分類器の出力不変性の尺度を提案する。
私たちの測度は計算が簡単で、テストポイントの真のラベルに依存しません。
画像分類,感情分析,自然言語推論のベンチマーク実験において,我々の測定値と実際のOOD一般化との間に強い相関関係を示す。
論文 参考訳(メタデータ) (2022-07-05T14:55:16Z) - Fairness Transferability Subject to Bounded Distribution Shift [5.62716254065607]
あるソース分布に「フェア」なアルゴリズム予測器が与えられたとしても、あるバウンダリ内のソースと異なる未知のターゲット分布上では、まだフェアなのか?
本研究では,有界分布シフトを考慮した機械学習予測器の統計的グループフェアネスの伝達可能性について検討する。
論文 参考訳(メタデータ) (2022-05-31T22:16:44Z) - Robust Fairness under Covariate Shift [11.151913007808927]
保護グループメンバーシップに関して公正な予測を行うことは、分類アルゴリズムの重要な要件となっている。
本稿では,ターゲット性能の面で最悪のケースに対して頑健な予測値を求める手法を提案する。
論文 参考訳(メタデータ) (2020-10-11T04:42:01Z) - Rectifying Pseudo Label Learning via Uncertainty Estimation for Domain
Adaptive Semantic Segmentation [49.295165476818866]
本稿では、意味的セグメンテーションの文脈において、ソースドメインからターゲットドメインへの知識伝達の教師なし領域適応に焦点を当てる。
既存のアプローチでは、通常、擬似ラベルを未ラベルのターゲットドメインデータを完全に活用するための基礎的真理とみなす。
本稿では,擬似ラベル学習の修正のために,学習中の予測の不確かさを明示的に推定することを提案する。
論文 参考訳(メタデータ) (2020-03-08T12:37:19Z) - Incremental Unsupervised Domain-Adversarial Training of Neural Networks [17.91571291302582]
教師付き統計学習の文脈では通常、トレーニングセットはテストサンプルを描画する同じ分布から来ていると仮定される。
ここでは、モデルが新しいドメインに反復的に適応される段階的な視点から、別の道を選び、問題にアプローチします。
その結果,いくつかのデータセットにおける非増加事例に対する明らかな改善が報告され,他の最先端のドメイン適応アルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2020-01-13T09:54:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。