論文の概要: Domain Adaptation Principal Component Analysis: base linear method for
learning with out-of-distribution data
- arxiv url: http://arxiv.org/abs/2208.13290v1
- Date: Sun, 28 Aug 2022 21:10:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-30 14:24:13.687050
- Title: Domain Adaptation Principal Component Analysis: base linear method for
learning with out-of-distribution data
- Title(参考訳): ドメイン適応主成分分析:分布外データを用いた基礎線形学習法
- Authors: Evgeny M Mirkes, Jonathan Bac, Aziz Fouch\'e, Sergey V. Stasenko,
Andrei Zinovyev and Alexander N. Gorban
- Abstract要約: ドメイン適応は現代の機械学習において一般的なパラダイムである。
ドメイン適応主成分分析(DAPCA)という手法を提案する。
DAPCAは、領域適応タスクの解決に有用な線形化データ表現を見つける。
- 参考スコア(独自算出の注目度): 55.41644538483948
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Domain adaptation is a popular paradigm in modern machine learning which aims
at tackling the problem of divergence between training or validation dataset
possessing labels for learning and testing a classifier (source domain) and a
potentially large unlabeled dataset where the model is exploited (target
domain). The task is to find such a common representation of both source and
target datasets in which the source dataset is informative for training and
such that the divergence between source and target would be minimized. Most
popular solutions for domain adaptation are currently based on training neural
networks that combine classification and adversarial learning modules, which
are data hungry and usually difficult to train. We present a method called
Domain Adaptation Principal Component Analysis (DAPCA) which finds a linear
reduced data representation useful for solving the domain adaptation task.
DAPCA is based on introducing positive and negative weights between pairs of
data points and generalizes the supervised extension of principal component
analysis. DAPCA represents an iterative algorithm such that at each iteration a
simple quadratic optimization problem is solved. The convergence of the
algorithm is guaranteed and the number of iterations is small in practice. We
validate the suggested algorithm on previously proposed benchmarks for solving
the domain adaptation task, and also show the benefit of using DAPCA in the
analysis of single cell omics datasets in biomedical applications. Overall,
DAPCA can serve as a useful preprocessing step in many machine learning
applications leading to reduced dataset representations, taking into account
possible divergence between source and target domains.
- Abstract(参考訳): ドメイン適応(domain adaptation)は、現代の機械学習において一般的なパラダイムであり、分類器(ソースドメイン)と潜在的に大きなラベルなしデータセット(ターゲットドメイン)を学習およびテストするためのラベルを持つデータセットのトレーニングまたは検証の相違に対処することを目的としている。
課題は、ソースデータセットとターゲットデータセットの両方の共通表現を見つけることであり、ソースデータセットがトレーニングのために通知され、ソースとターゲットのばらつきを最小限に抑えることである。
ドメイン適応のための最も一般的なソリューションは、現在、分類と逆学習モジュールを組み合わせたニューラルネットワークのトレーニングに基づいている。
本稿では,DAPCA(Domain Adaptation principal Component Analysis)と呼ばれる手法を提案する。
DAPCAは、データポイント間の正と負の重みを導入し、主成分分析の教師付き拡張を一般化する。
DAPCAは反復アルゴリズムを表現し、各イテレーションで単純な二次最適化問題を解く。
アルゴリズムの収束は保証され、イテレーションの数は実際には少ない。
提案アルゴリズムは,これまで提案されてきたドメイン適応タスクのベンチマークで検証し,バイオメディカル応用における単一細胞オミクスデータセットの解析にDAACAを用いることのメリットを示した。
全体として、DAPCAは、ソースとターゲットドメイン間のばらつきを考慮して、データセット表現の削減につながる多くの機械学習アプリケーションにおいて、有用な前処理ステップとして機能する。
関連論文リスト
- Unsupervised domain adaptation with non-stochastic missing data [0.6608945629704323]
対象領域に欠落するデータが存在する場合の分類問題に対する教師なし領域適応(UDA)について検討する。
命令はドメイン不変の潜在空間で実行され、完全なソースドメインからの間接的な監視を利用する。
データセットの適応、分類、計算を共同で行う利点を示す。
論文 参考訳(メタデータ) (2021-09-16T06:37:07Z) - Exploring Data Aggregation and Transformations to Generalize across
Visual Domains [0.0]
この論文は、ドメイン一般化(DG)、ドメイン適応(DA)およびそれらのバリエーションの研究に寄与する。
本稿では,機能集約戦略と視覚変換を利用するドメイン一般化とドメイン適応の新しいフレームワークを提案する。
提案手法が確立したDGおよびDAベンチマークにおいて,最先端の競争的アプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-08-20T14:58:14Z) - A Review of Single-Source Deep Unsupervised Visual Domain Adaptation [81.07994783143533]
大規模ラベル付きトレーニングデータセットにより、ディープニューラルネットワークは、幅広いベンチマークビジョンタスクを拡張できるようになった。
多くのアプリケーションにおいて、大量のラベル付きデータを取得するのは非常に高価で時間を要する。
限られたラベル付きトレーニングデータに対処するため、大規模ラベル付きソースドメインでトレーニングされたモデルを、疎ラベルまたは未ラベルのターゲットドメインに直接適用しようと試みている人も多い。
論文 参考訳(メタデータ) (2020-09-01T00:06:50Z) - Adaptive Risk Minimization: Learning to Adapt to Domain Shift [109.87561509436016]
ほとんどの機械学習アルゴリズムの基本的な前提は、トレーニングとテストデータは、同じ基礎となる分布から引き出されることである。
本研究では,学習データをドメインに構造化し,複数のテスト時間シフトが存在する場合の領域一般化の問題点について考察する。
本稿では、適応リスク最小化(ARM)の枠組みを紹介し、モデルがトレーニング領域に適応することを学ぶことで、効果的な適応のために直接最適化される。
論文 参考訳(メタデータ) (2020-07-06T17:59:30Z) - Sequential Domain Adaptation through Elastic Weight Consolidation for
Sentiment Analysis [3.1473798197405944]
我々はSDA(Sequential Domain Adaptation)というモデルに依存しないフレームワークを提案する。
提案手法は,CNNのようなシンプルなアーキテクチャが,感情分析(SA)の領域適応において,複雑な最先端モデルより優れていることを示す。
さらに、ソースドメインのより難しい第1次反計算機的順序付けの有効性が最大性能に繋がることを示した。
論文 参考訳(メタデータ) (2020-07-02T15:21:56Z) - Supervised Domain Adaptation using Graph Embedding [86.3361797111839]
領域適応法は、2つの領域間の分布がシフトし、それを認識しようとすると仮定する。
グラフ埋め込みに基づく汎用フレームワークを提案する。
提案手法が強力なドメイン適応フレームワークにつながることを示す。
論文 参考訳(メタデータ) (2020-03-09T12:25:13Z) - Towards Fair Cross-Domain Adaptation via Generative Learning [50.76694500782927]
ドメイン適応(DA)は、よくラベル付けされたソースドメイン上でトレーニングされたモデルを、異なる分散に横たわる未ラベルのターゲットドメインに適応することを目的としています。
本研究では,新規な生成的Few-shot Cross-Domain Adaptation (GFCA) アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-03-04T23:25:09Z) - Do We Really Need to Access the Source Data? Source Hypothesis Transfer
for Unsupervised Domain Adaptation [102.67010690592011]
Unsupervised adaptUDA (UDA) は、ラベル付きソースデータセットから学んだ知識を活用して、新しいラベル付きドメインで同様のタスクを解決することを目的としている。
従来のUDAメソッドは、モデルに適応するためには、通常、ソースデータにアクセスする必要がある。
この作業は、訓練済みのソースモデルのみが利用できる実践的な環境に取り組み、ソースデータなしでそのようなモデルを効果的に活用してUDA問題を解決する方法に取り組みます。
論文 参考訳(メタデータ) (2020-02-20T03:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。