論文の概要: Contrastive Learning for Unsupervised Domain Adaptation of Time Series
- arxiv url: http://arxiv.org/abs/2206.06243v1
- Date: Mon, 13 Jun 2022 15:23:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-14 13:55:28.181846
- Title: Contrastive Learning for Unsupervised Domain Adaptation of Time Series
- Title(参考訳): 時系列の教師なし領域適応のためのコントラスト学習
- Authors: Yilmazcan Ozyurt, Stefan Feuerriegel, Ce Zhang
- Abstract要約: 教師なしドメイン適応(UDA)は、ラベル付きソースドメインを使用して機械学習モデルを学習することを目的としている。
我々はCLUDAと呼ばれる時系列データのUDAのための新しいフレームワークを開発した。
本稿では,本フレームワークが時系列UDAの最先端性能を実現することを示す。
- 参考スコア(独自算出の注目度): 29.211602179219316
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised domain adaptation (UDA) aims at learning a machine learning
model using a labeled source domain that performs well on a similar yet
different, unlabeled target domain. UDA is important in many applications such
as medicine, where it is used to adapt risk scores across different patient
cohorts. In this paper, we develop a novel framework for UDA of time series
data, called CLUDA. Specifically, we propose a contrastive learning framework
to learn domain-invariant semantics in multivariate time series, so that these
preserve label information for the prediction task. In our framework, we
further capture semantic variation between source and target domain via
nearest-neighbor contrastive learning. To the best of our knowledge, ours is
the first framework to learn domain-invariant semantic information for UDA of
time series data. We evaluate our framework using large-scale, real-world
datasets with medical time series (i.e., MIMIC-IV and AmsterdamUMCdb) to
demonstrate its effectiveness and show that it achieves state-of-the-art
performance for time series UDA.
- Abstract(参考訳): unsupervised domain adaptation (uda) は、ラベル付きソースドメインを使用して機械学習モデルを学習することを目的としている。
UDAは医療などの多くの分野で重要であり、様々な患者コホートにリスクスコアを適応させるのに用いられる。
本稿では,CLUDAと呼ばれる時系列データのUDAのための新しいフレームワークを開発する。
具体的には,多変量時系列におけるドメイン不変セマンティクスを学習するための対照的な学習フレームワークを提案する。
また,本フレームワークでは,最寄りのコントラスト学習により,ソースドメインとターゲットドメインのセマンティックな変化を捉える。
我々の知る限りでは、時系列データのUDAのドメイン不変セマンティック情報を学ぶための最初のフレームワークである。
我々は,医療時系列を用いた大規模実世界のデータセット(MIMIC-IVとアムステルダムUMCdb)を用いて,その有効性を実証し,時系列UDAの最先端性能を実現することを示す。
関連論文リスト
- Deep Unsupervised Domain Adaptation for Time Series Classification: a
Benchmark [3.618615996077951]
Unsupervised Domain Adaptation (UDA)は、ラベル付きソースデータを利用してラベルなしターゲットデータのモデルをトレーニングすることを目的としている。
本稿では,時系列分類のためのUDA手法の評価ベンチマークを提案する。
さまざまなドメインシフトと時間的ダイナミクスをカバーする7つの新しいベンチマークデータセットを提供する。
論文 参考訳(メタデータ) (2023-12-15T15:03:55Z) - Multi-scale Feature Alignment for Continual Learning of Unlabeled
Domains [3.9498537297431167]
生成的特徴駆動のイメージリプレイとデュアル目的判別器は、リプレイのための現実的な特徴を持つ画像の生成を可能にする。
本稿では,提案手法の構成要素について詳細なアブレーション実験を行い,非教師付きパッチベースセグメンテーションタスクに対する連続的UDA法の適用可能性を示す。
論文 参考訳(メタデータ) (2023-02-02T18:19:01Z) - Contrastive Domain Adaptation for Time-Series via Temporal Mixup [14.723714504015483]
時系列データのための新しい軽量コントラスト型ドメイン適応フレームワークであるCoTMixを提案する。
具体的には、ソースとターゲットドメインに対する2つの中間的な拡張ビューを生成するための、新しい時間混合戦略を提案する。
我々のアプローチは、最先端のUDAメソッドを著しく上回ります。
論文 参考訳(メタデータ) (2022-12-03T06:53:38Z) - Self-supervised Autoregressive Domain Adaptation for Time Series Data [9.75443057146649]
教師なしドメイン適応(UDA)は、視覚アプリケーションにおけるドメインシフト問題にうまく対処している。
これらの手法は、以下の理由により時系列データのパフォーマンスが制限される可能性がある。
本稿では,これらの制約に対処するための自己監督型自己回帰ドメイン適応(SLARDA)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-29T08:17:23Z) - Discover, Hallucinate, and Adapt: Open Compound Domain Adaptation for
Semantic Segmentation [91.30558794056056]
意味的セグメンテーションのための教師なしドメイン適応(UDA)が近年注目を集めている。
我々は,発見,幻覚,適応の3つの主要な設計原則に基づく新しいフレームワークを提案する。
我々は、標準ベンチマークGTAからC自動運転へのソリューションの評価を行い、新しい最先端の結果を得た。
論文 参考訳(メタデータ) (2021-10-08T13:20:09Z) - Variational Attention: Propagating Domain-Specific Knowledge for
Multi-Domain Learning in Crowd Counting [75.80116276369694]
群集カウントでは, 激しいラベル付けの問題により, 新しい大規模データセットを収集する難易度が知覚される。
マルチドメイン共同学習を活用し,DKPNet(Domain-specific Knowledge Propagating Network)を提案する。
主に、異なるドメインに対する注意分布を明示的にモデル化する、新しい変動注意法(VA)技術を提案する。
論文 参考訳(メタデータ) (2021-08-18T08:06:37Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - Curriculum Graph Co-Teaching for Multi-Target Domain Adaptation [78.28390172958643]
マルチターゲットドメイン適応(MTDA)における複数のドメインシフトを軽減するのに役立つ2つの重要な側面を同定する。
本論文では,二重分類器ヘッドを用いたCGCT(Curriculum Graph Co-Teaching)を提案する。そのうちの1つがグラフ畳み込みネットワーク(GCN)である。
ドメインラベルが利用可能になると、まずより簡単なターゲットドメインに適応し、続いて難しいドメインに適応する逐次適応戦略であるDomain-Aware Curriculum Learning (DCL)を提案する。
論文 参考訳(メタデータ) (2021-04-01T23:41:41Z) - Continual Unsupervised Domain Adaptation for Semantic Segmentation [14.160280479726921]
セマンティックセグメンテーションのための教師なしドメイン適応(UDA)は、ピクセルレベルのラベルを得るのが難しい実世界のシナリオに好適に適用されている。
本稿では,新たに設計されたETM(Expanding Target-specific Memory)フレームワークに基づくセマンティックセマンティックセグメンテーションのための連続UDAを提案する。
新たなETMフレームワークには,各対象領域を対象としたTarget-specific Memory (TM) が組み込まれている。
論文 参考訳(メタデータ) (2020-10-19T05:59:48Z) - Domain Adaptation for Semantic Parsing [68.81787666086554]
本稿では,ドメイン適応のための新しいセマンティクスを提案する。このセマンティクスでは,ソースドメインと比較して,対象ドメインのアノテーション付きデータがはるかに少ない。
我々のセマンティックな利点は、2段階の粗大なフレームワークから得ており、2段階の異なる正確な処理を提供できる。
ベンチマークデータセットの実験により、我々の手法はいくつかの一般的なドメイン適応戦略より一貫して優れていることが示された。
論文 参考訳(メタデータ) (2020-06-23T14:47:41Z) - Mind the Gap: Enlarging the Domain Gap in Open Set Domain Adaptation [65.38975706997088]
オープンセットドメイン適応(OSDA)は、ターゲットドメインに未知のクラスが存在することを前提としている。
既存の最先端手法は、より大きなドメインギャップが存在する場合、かなりの性能低下を被ることを示す。
我々は、より大きなドメインギャップに特に対処するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-08T14:20:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。