論文の概要: Learning Compositional Transferability of Time Series for Source-Free Domain Adaptation
- arxiv url: http://arxiv.org/abs/2504.14994v1
- Date: Mon, 21 Apr 2025 09:51:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-29 15:23:41.031067
- Title: Learning Compositional Transferability of Time Series for Source-Free Domain Adaptation
- Title(参考訳): ソースフリー領域適応のための時系列の合成変換可能性の学習
- Authors: Hankang Sun, Guiming Li, Su Yang, Baoqi Li,
- Abstract要約: ドメイン適応は、非常にダイナミックな性質のため、時系列分類では困難である。
時系列再構成は、ターゲットとソースの時系列を整列するサウンドソリューションである。
本稿では,時系列再構成のための合成アーキテクチャを用いて,ドメイン転送可能性の構成をアンタングル化しようとする。
- 参考スコア(独自算出の注目度): 4.025743776539719
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Domain adaptation is challenging for time series classification due to the highly dynamic nature. This study tackles the most difficult subtask when both target labels and source data are inaccessible, namely, source-free domain adaptation. To reuse the classification backbone pre-trained on source data, time series reconstruction is a sound solution that aligns target and source time series by minimizing the reconstruction errors of both. However, simply fine-tuning the source pre-trained reconstruction model on target data may lose the learnt priori, and it struggles to accommodate domain varying temporal patterns in a single encoder-decoder. Therefore, this paper tries to disentangle the composition of domain transferability by using a compositional architecture for time series reconstruction. Here, the preceding component is a U-net frozen since pre-trained, the output of which during adaptation is the initial reconstruction of a given target time series, acting as a coarse step to prompt the subsequent finer adaptation. The following pipeline for finer adaptation includes two parallel branches: The source replay branch using a residual link to preserve the output of U-net, and the offset compensation branch that applies an additional autoencoder (AE) to further warp U-net's output. By deploying a learnable factor on either branch to scale their composition in the final output of reconstruction, the data transferability is disentangled and the learnt reconstructive capability from source data is retained. During inference, aside from the batch-level optimization in the training, we search at test time stability-aware rescaling of source replay branch to tolerate instance-wise variation. The experimental results show that such compositional architecture of time series reconstruction leads to SOTA performance on 3 widely used benchmarks.
- Abstract(参考訳): ドメイン適応は、非常にダイナミックな性質のため、時系列分類では困難である。
この研究は、ターゲットラベルとソースデータの両方がアクセス不能な場合、すなわち、ソースフリーなドメイン適応において最も難しいサブタスクに取り組む。
ソースデータに基づいて事前訓練された分類バックボーンを再利用するために、時系列再構成は、両方の再構成エラーを最小限に抑えて、ターゲットとソースの時系列を整列するサウンドソリューションである。
しかし、ターゲットデータに対するソーストレーニング済み再構成モデルを単純に微調整するだけで、学習した優先順位が失われる可能性があり、単一のエンコーダ・デコーダにおいて、ドメインの異なる時間パターンに対応するのに苦労する。
そこで本研究では,時系列再構成のための合成アーキテクチャを用いて,ドメイン転送可能性の構成をアンタングル化しようとする。
ここで、先行成分は、予め訓練されてから凍結されたUネットであり、その出力は、所定の目標時系列の初期再構成であり、後続のファインダ適応を促すための粗いステップとして機能する。
細かな適応のための次のパイプラインは、U-netの出力を保存するために残留リンクを使用するソースリプレイブランチと、U-netの出力をさらにワープするために追加のオートエンコーダ(AE)を適用するオフセット補償ブランチである。
いずれかのブランチに学習可能な因子を配置して、その構成を再構築の最終出力にスケールさせることで、データ転送性が切り離され、ソースデータからの学習可能な再構築能力が維持される。
推論中、トレーニングにおけるバッチレベルの最適化とは別に、テスト時の安定性を意識したソースリプレイブランチの再スケーリングを検索して、インスタンスレベルの変動を許容する。
実験結果から, 時系列再構成による構成構造は, 広く使用されている3つのベンチマーク上でのSOTA性能に繋がることが示された。
関連論文リスト
- Rethinking Video Tokenization: A Conditioned Diffusion-based Approach [58.164354605550194]
新しいトークン化ツールであるDiffusion Conditioned-based Gene Tokenizerは、GANベースのデコーダを条件付き拡散モデルで置き換える。
再建に基本的MSE拡散損失とKL項,LPIPSを併用した訓練を行った。
CDTのスケールダウン版(3$times inference speedup)でさえ、トップベースラインと互換性がある。
論文 参考訳(メタデータ) (2025-03-05T17:59:19Z) - Match-And-Deform: Time Series Domain Adaptation through Optimal
Transport and Temporal Alignment [10.89671409446191]
我々は、ソースとターゲット時系列の対応を見つけることを目的としたMatch-And-Deform(MAD)アプローチを導入する。
ディープニューラルネットワークに組み込むと、MADは両方のドメインを整列する時系列の新しい表現を学ぶのに役立つ。
ベンチマークデータセットとリモートセンシングデータに関する実証研究は、MADが有意義なサンプルとサンプルのペアリングと時間シフト推定を行うことを示した。
論文 参考訳(メタデータ) (2023-08-24T09:57:11Z) - Transform-Equivariant Consistency Learning for Temporal Sentence
Grounding [66.10949751429781]
ビデオ毎により差別的な表現を学習するために,新しい同変一貫性規則学習フレームワークを導入する。
私たちのモチベーションは、クエリ誘導アクティビティの時間的境界を一貫して予測することにある。
特に,ビデオの完全性と滑らか性を高めるために,自己教師付き一貫性損失モジュールを考案した。
論文 参考訳(メタデータ) (2023-05-06T19:29:28Z) - FormerTime: Hierarchical Multi-Scale Representations for Multivariate
Time Series Classification [53.55504611255664]
formerTimeは、多変量時系列分類タスクの分類能力を改善する階層的表現モデルである。
1)時系列データから階層的なマルチスケール表現を学習し、(2)トランスフォーマーと畳み込みネットワークの強さを継承し、(3)自己維持メカニズムによって引き起こされる効率の課題に取り組む。
論文 参考訳(メタデータ) (2023-02-20T07:46:14Z) - Making Reconstruction-based Method Great Again for Video Anomaly
Detection [64.19326819088563]
ビデオの異常検出は重要な問題だが、難しい問題だ。
既存の再構成に基づく手法は、昔ながらの畳み込みオートエンコーダに依存している。
連続フレーム再構築のための新しいオートエンコーダモデルを提案する。
論文 参考訳(メタデータ) (2023-01-28T01:57:57Z) - HyperTime: Implicit Neural Representation for Time Series [131.57172578210256]
暗黙の神経表現(INR)は、データの正確で解像度に依存しないエンコーディングを提供する強力なツールとして最近登場した。
本稿では、INRを用いて時系列の表現を分析し、再構成精度とトレーニング収束速度の点で異なるアクティベーション関数を比較した。
本稿では,INRを利用して時系列データセット全体の圧縮潜在表現を学習するハイパーネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-08-11T14:05:51Z) - Continuous Sign Language Recognition via Temporal Super-Resolution
Network [10.920363368754721]
本稿では,深層学習に基づく空間的時間的階層的連続手話認識モデルが大量の計算量を持つという課題を論じる。
データは、最終認識精度の損失を最小限に抑えながら、全体モデルを低減するために、密度の高い特徴シーケンスに再構成される。
2つの大規模手話データセットの実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-07-03T00:55:45Z) - Rethinking Reconstruction Autoencoder-Based Out-of-Distribution
Detection [0.0]
リコンストラクションオートエンコーダに基づく手法は、入力再構成誤差を新規性対正規性の計量として用いることでこの問題に対処する。
本稿では, 意味的再構成, データの確実性分解, 正規化L2距離を導入し, 元の手法を大幅に改善する。
提案手法は,追加データや実装の困難さ,時間を要するパイプライン,さらには既知のクラスの分類精度を損なうことなく機能する。
論文 参考訳(メタデータ) (2022-03-04T09:04:55Z) - Recent Developments Combining Ensemble Smoother and Deep Generative
Networks for Facies History Matching [58.720142291102135]
本研究は、ファシズムモデルのための連続パラメータ化を構築するためのオートエンコーダネットワークの利用に焦点を当てる。
本稿では,VAE,GAN,Wasserstein GAN,変分自動符号化GAN,サイクルGANの主成分分析(PCA),転送スタイルネットワークのPCA,スタイル損失のVAEの7種類の定式化をベンチマークする。
論文 参考訳(メタデータ) (2020-05-08T21:32:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。