論文の概要: Prompting-based Temporal Domain Generalization
- arxiv url: http://arxiv.org/abs/2310.02473v2
- Date: Thu, 15 Feb 2024 19:22:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-19 20:19:49.760900
- Title: Prompting-based Temporal Domain Generalization
- Title(参考訳): プロンプトに基づく時間領域一般化
- Authors: Sepidehsadat Hosseini, Mengyao Zhai, Hossein Hajimirsadegh, Frederick
Tung
- Abstract要約: 本稿では,時間領域の一般化に対する新しいプロンプトベースアプローチを提案する。
本手法は,グローバルなプロンプト,ドメイン固有のプロンプト,ドリフト認識プロンプトを学習することで,時間的ドリフトに訓練されたモデルを適用する。
分類,回帰,時系列予測タスクの実験は,提案手法の汎用性を実証している。
- 参考スコア(独自算出の注目度): 10.377683220196873
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning traditionally assumes that the training and testing data are
distributed independently and identically. However, in many real-world
settings, the data distribution can shift over time, leading to poor
generalization of trained models in future time periods. This paper presents a
novel prompting-based approach to temporal domain generalization that is
parameter-efficient, time-efficient, and does not require access to future data
during training. Our method adapts a trained model to temporal drift by
learning global prompts, domain-specific prompts, and drift-aware prompts that
capture underlying temporal dynamics. Experiments on classification,
regression, and time series forecasting tasks demonstrate the generality of the
proposed approach. The code repository will be publicly shared.
- Abstract(参考訳): 機械学習は伝統的に、トレーニングとテストデータは独立して同一に分散されていると仮定する。
しかし、多くの実世界の環境では、データ分布は時間とともに変化し、将来の時間における訓練されたモデルの一般化が不十分になる。
本稿では,パラメータ効率が高く,時間効率が良く,トレーニング中に将来のデータにアクセスする必要のない,時間領域一般化のための新しいプロンプトベースアプローチを提案する。
本手法は,学習したモデルに時間的ドリフトを適用し,時間的ダイナミクスを捉えるグローバルプロンプト,ドメイン固有プロンプト,ドリフト認識プロンプトを学習する。
分類,回帰,時系列予測タスクの実験は,提案手法の汎用性を実証している。
コードリポジトリはパブリックに共有される。
関連論文リスト
- TimeSiam: A Pre-Training Framework for Siamese Time-Series Modeling [70.38241681764738]
時系列事前トレーニングは、最近、ラベルのコストを削減し、下流の様々なタスクに利益をもたらす可能性があるとして、広く注目を集めている。
本稿では,シームズネットワークに基づく時系列の簡易かつ効果的な自己教師型事前学習フレームワークとしてTimeSiamを提案する。
論文 参考訳(メタデータ) (2024-02-04T13:10:51Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Prompting Diffusion Representations for Cross-Domain Semantic
Segmentation [101.04326113360342]
拡散事前学習は、セマンティックセグメンテーションのための並外れた領域一般化結果を達成する。
本研究では,シーンプロンプトとプロンプトランダム化戦略を導入し,セグメンテーションヘッドを訓練する際に,ドメイン不変情報をさらに混乱させる。
論文 参考訳(メタデータ) (2023-07-05T09:28:25Z) - OpenSTL: A Comprehensive Benchmark of Spatio-Temporal Predictive
Learning [67.07363529640784]
提案するOpenSTLは,一般的なアプローチを再帰的モデルと再帰的モデルに分類する。
我々は, 合成移動物体軌道, 人間の動き, 運転シーン, 交通流, 天気予報など, さまざまな領域にわたるデータセットの標準評価を行う。
リカレントフリーモデルは、リカレントモデルよりも効率と性能のバランスが良いことがわかった。
論文 参考訳(メタデータ) (2023-06-20T03:02:14Z) - Mixed moving average field guided learning for spatio-temporal data [0.0]
我々は、理論誘導型機械学習アプローチを用いて、アンサンブル予測を行う。
空間的時間的・時間的短距離・長距離データセットを用いたデータへの適用の可能性を強調した。
次に、線形予測器とOrnstein-Uhlenbeckプロセスからシミュレーションしたデータセットを用いて学習手法の性能を検証した。
論文 参考訳(メタデータ) (2023-01-02T16:11:05Z) - Wild-Time: A Benchmark of in-the-Wild Distribution Shift over Time [69.77704012415845]
時間的シフトは、現実世界にデプロイされた機械学習モデルのパフォーマンスを著しく低下させる可能性がある。
ドメイン一般化、連続学習、自己教師付き学習、アンサンブル学習の手法を含む13の先行手法をベンチマークする。
いずれの評価方略も,分布外データから分布外データへの平均的な性能低下を観察する。
論文 参考訳(メタデータ) (2022-11-25T17:07:53Z) - Self-Adaptive Forecasting for Improved Deep Learning on Non-Stationary
Time-Series [20.958959332978726]
SAFは、バックキャストに基づく予測に先立って自己適応段階を統合する」
提案手法は,符号化された表現を進化する分布に効率よく適応させることにより,より優れた一般化を実現する。
時系列データが医療や金融などの非定常性で知られる領域における合成および実世界のデータセットについて、SAFの顕著なメリットを実証する。
論文 参考訳(メタデータ) (2022-02-04T21:54:10Z) - PRNet: A Periodic Residual Learning Network for Crowd Flow Forecasting [8.50942649992681]
我々は,クラウドフローデータの周期性をモデル化するための新しい周期的残差学習ネットワーク(PRNet)を考案した。
PRNetは、入力(前の時間)と出力(将来の時間)のずれをモデル化し、周期的残差学習問題として予測する群集フローをフレーム化する。
2つの実世界のデータセットに対する実験結果から、PRNetは精度と堅牢性の両方の観点から最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-12-08T12:04:27Z) - Training for the Future: A Simple Gradient Interpolation Loss to
Generalize Along Time [26.261277497201565]
いくつかの実世界のアプリケーションでは、機械学習モデルがデプロイされ、時間とともに分布が徐々に変化するデータの予測を行う。
本稿では,時間に敏感なパラメータを持つモデルから始める単純な手法を提案する。
論文 参考訳(メタデータ) (2021-08-15T11:20:10Z) - Adaptive Risk Minimization: Learning to Adapt to Domain Shift [109.87561509436016]
ほとんどの機械学習アルゴリズムの基本的な前提は、トレーニングとテストデータは、同じ基礎となる分布から引き出されることである。
本研究では,学習データをドメインに構造化し,複数のテスト時間シフトが存在する場合の領域一般化の問題点について考察する。
本稿では、適応リスク最小化(ARM)の枠組みを紹介し、モデルがトレーニング領域に適応することを学ぶことで、効果的な適応のために直接最適化される。
論文 参考訳(メタデータ) (2020-07-06T17:59:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。