論文の概要: Domain Adaptation for Time-Series Classification to Mitigate Covariate
Shift
- arxiv url: http://arxiv.org/abs/2204.03342v1
- Date: Thu, 7 Apr 2022 10:27:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-08 14:12:30.189779
- Title: Domain Adaptation for Time-Series Classification to Mitigate Covariate
Shift
- Title(参考訳): コ変量シフトを緩和する時系列分類のための領域適応
- Authors: Felix Ott and David R\"ugamer and Lucas Heublein and Bernd Bischl and
Christopher Mutschler
- Abstract要約: 本稿では,2つのステップに基づいた新しいドメイン適応手法を提案する。
まず、いくつかのサンプルから、ソースからターゲットドメインへの最適なクラス依存変換を探索する。
次に、埋め込み類似性技術を用いて、推論時に対応する変換を選択する。
- 参考スコア(独自算出の注目度): 3.071136270246468
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The performance of a machine learning model degrades when it is applied to
data from a similar but different domain than the data it has initially been
trained on. To mitigate this domain shift problem, domain adaptation (DA)
techniques search for an optimal transformation that converts the (current)
input data from a source domain to a target domain to learn a domain-invariant
representations that reduces domain discrepancy.
This paper proposes a novel supervised domain adaptation based on two steps.
First, we search for an optimal class-dependent transformation from the source
to the target domain from a few samples. We consider optimal transport methods
such as the earth mover distance with Laplacian regularization, Sinkhorn
transport and correlation alignment. Second, we use embedding similarity
techniques to select the corresponding transformation at inference. We use
correlation metrics and maximum mean discrepancy with higher-order moment
matching techniques. We conduct an extensive evaluation on time-series datasets
with domain shift including simulated and various online handwriting datasets
to demonstrate the performance.
- Abstract(参考訳): 機械学習モデルのパフォーマンスは、当初トレーニングされたデータと似ているが異なるドメインのデータに適用された時に低下する。
このドメインシフト問題を緩和するために、ドメイン適応(DA)技術は、ソースドメインから(現在の)入力データをターゲットドメインに変換する最適な変換を求め、ドメインの差を小さくするドメイン不変表現を学習する。
本稿では,2つのステップに基づいた新しいドメイン適応手法を提案する。
まず、いくつかのサンプルから、ソースからターゲットドメインへの最適なクラス依存変換を探索する。
本研究では,ラプラシアン正規化,シンクホーン輸送,相関アライメントによる地球移動距離などの最適輸送手法を検討する。
第二に、埋め込み類似性技術を用いて推論時に対応する変換を選択する。
我々は高次モーメントマッチング技術を用いた相関指標と最大平均誤差を用いる。
シミュレーションや様々なオンライン手書きデータセットを含むドメインシフトによる時系列データセットの広範な評価を行い、性能を実証する。
関連論文リスト
- DAOT: Domain-Agnostically Aligned Optimal Transport for Domain-Adaptive
Crowd Counting [35.83485358725357]
ドメイン適応は一般的に、異なるデータセット間のドメインギャップをブリッジするために、群衆カウントに使用される。
既存のドメイン適応手法は、同じデータセット内の差を見下ろしながら、データセット間の違いに焦点を当てる傾向がある。
ドメインに依存しない要素をドメイン間で整合させるDAOT(Domain-Agnostically Aligned Optimal Transport)戦略を提案する。
論文 参考訳(メタデータ) (2023-08-10T02:59:40Z) - SALUDA: Surface-based Automotive Lidar Unsupervised Domain Adaptation [62.889835139583965]
我々は、ソースデータとターゲットデータに基づいて、暗黙の基盤となる表面表現を同時に学習する教師なし補助タスクを導入する。
両方のドメインが同じ遅延表現を共有しているため、モデルは2つのデータソース間の不一致を許容せざるを得ない。
実験の結果,本手法は実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-
論文 参考訳(メタデータ) (2023-04-06T17:36:23Z) - Improving Domain Generalization with Domain Relations [77.63345406973097]
本稿では、モデルがトレーニングされたドメインと異なる新しいドメインに適用されたときに発生するドメインシフトに焦点を当てる。
ドメイン固有モデルを学習するためのD$3$Gという新しい手法を提案する。
以上の結果から,D$3$Gは最先端の手法より一貫して優れていた。
論文 参考訳(メタデータ) (2023-02-06T08:11:16Z) - Multi-step domain adaptation by adversarial attack to $\mathcal{H}
\Delta \mathcal{H}$-divergence [73.89838982331453]
教師なしのドメイン適応設定では、対象ドメインのソース精度を向上させるために、ソースドメインを逆例に置き換えることが示される。
我々は、様々な実験を行い、DigitsとOffice-Homeデータセットの精度を向上した。
論文 参考訳(メタデータ) (2022-07-18T21:24:05Z) - Domain Generalization via Selective Consistency Regularization for Time
Series Classification [16.338176636365752]
ドメイン一般化手法は、限られた数のソースドメインからのデータで、ドメインシフトに頑健なモデルを学習することを目的としている。
本稿では,ソースドメイン間の予測一貫性を選択的に適用する表現学習手法を提案する。
論文 参考訳(メタデータ) (2022-06-16T01:57:35Z) - Connecting adversarial attacks and optimal transport for domain
adaptation [116.50515978657002]
ドメイン適応では、ソースドメインのサンプルに基づいてトレーニングされた分類器をターゲットドメインに適応させることが目標である。
提案手法では,最適なトランスポートを用いて,対象のサンプルをソース・フィクションという名前のドメインにマッピングする。
我々の主なアイデアは、ターゲットドメイン上のc-環状モノトン変換によってソースフィクションを生成することである。
論文 参考訳(メタデータ) (2022-05-30T20:45:55Z) - Towards Unsupervised Domain Adaptation via Domain-Transformer [0.0]
教師なしドメイン適応(UDA)のためのドメイン変換器(DoT)を提案する。
DoTは新しい視点から、CNNバックボーンとTransformerのコアアテンションメカニズムを統合する。
ドメイン間の局所的な意味的一貫性を実現し、そこではドメインレベルの注意と多様体の正規化が探索される。
論文 参考訳(メタデータ) (2022-02-24T02:30:15Z) - Domain Adaptation via Prompt Learning [39.97105851723885]
Unsupervised Domain Adaption (UDA) は、十分にアノテーションされたソースドメインから学習したモデルをターゲットドメインに適応させることを目的としている。
我々は,Prompt Learning (DAPL) によるドメイン適応という,UDAのための新しいプロンプト学習パラダイムを導入する。
論文 参考訳(メタデータ) (2022-02-14T13:25:46Z) - Domain Adaptation for Semantic Parsing [68.81787666086554]
本稿では,ドメイン適応のための新しいセマンティクスを提案する。このセマンティクスでは,ソースドメインと比較して,対象ドメインのアノテーション付きデータがはるかに少ない。
我々のセマンティックな利点は、2段階の粗大なフレームワークから得ており、2段階の異なる正確な処理を提供できる。
ベンチマークデータセットの実験により、我々の手法はいくつかの一般的なドメイン適応戦略より一貫して優れていることが示された。
論文 参考訳(メタデータ) (2020-06-23T14:47:41Z) - Supervised Domain Adaptation using Graph Embedding [86.3361797111839]
領域適応法は、2つの領域間の分布がシフトし、それを認識しようとすると仮定する。
グラフ埋め込みに基づく汎用フレームワークを提案する。
提案手法が強力なドメイン適応フレームワークにつながることを示す。
論文 参考訳(メタデータ) (2020-03-09T12:25:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。