論文の概要: Time Series Similarity Score Functions to Monitor and Interact with the Training and Denoising Process of a Time Series Diffusion Model applied to a Human Activity Recognition Dataset based on IMUs
- arxiv url: http://arxiv.org/abs/2505.14739v1
- Date: Tue, 20 May 2025 06:38:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:58.666077
- Title: Time Series Similarity Score Functions to Monitor and Interact with the Training and Denoising Process of a Time Series Diffusion Model applied to a Human Activity Recognition Dataset based on IMUs
- Title(参考訳): 時系列類似度スコア関数を用いたIMUに基づく時系列拡散モデルの訓練・評価過程の監視と対応
- Authors: Heiko Oppel, Andreas Spilz, Michael Munz,
- Abstract要約: 拡散確率モデルは 合成センサー信号を生成できる
トレーニングプロセスは、前処理で付加された雑音と拡散モデルで予測された雑音との差を測定する損失関数によって制御される。
我々は、複数の類似度指標を調査し、トレーニングと合成プロセスを監視して、この問題を克服するために既存のメトリクスを適用します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Denoising diffusion probabilistic models are able to generate synthetic sensor signals. The training process of such a model is controlled by a loss function which measures the difference between the noise that was added in the forward process and the noise that was predicted by the diffusion model. This enables the generation of realistic data. However, the randomness within the process and the loss function itself makes it difficult to estimate the quality of the data. Therefore, we examine multiple similarity metrics and adapt an existing metric to overcome this issue by monitoring the training and synthetisation process using those metrics. The adapted metric can even be fine-tuned on the input data to comply with the requirements of an underlying classification task. We were able to significantly reduce the amount of training epochs without a performance reduction in the classification task. An optimized training process not only saves resources, but also reduces the time for training generative models.
- Abstract(参考訳): 拡散確率モデルは合成センサ信号を生成することができる。
このようなモデルの学習過程は、前処理で付加された雑音と拡散モデルで予測された雑音との差を測定する損失関数によって制御される。
これにより、現実的なデータを生成することができる。
しかし、プロセス内のランダム性と損失関数自体がデータの品質を見積もるのが困難である。
そこで我々は,複数の類似度指標を調査し,これらの指標を用いてトレーニングおよび合成プロセスを監視することにより,この問題を克服するために既存の指標を適用した。
適応された計量は、基礎となる分類タスクの要求を満たすために入力データに微調整することもできる。
分類タスクのパフォーマンスを低下させることなく,トレーニングのエポックスを大幅に削減することができた。
最適化されたトレーニングプロセスは、リソースを節約するだけでなく、生成モデルをトレーニングする時間を短縮する。
関連論文リスト
- Handling Label Noise via Instance-Level Difficulty Modeling and Dynamic Optimization [33.13911801301048]
ディープニューラルネットワークは、ノイズの多い監視の下で一般化性能が低下する。
既存のメソッドでは、クリーンなサブセットの分離やノイズのあるラベルの修正に重点を置いている。
本稿では,インスタンスレベルの最適化が可能な新しい2段階雑音学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-01T19:12:58Z) - Impact of Noisy Supervision in Foundation Model Learning [91.56591923244943]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Understanding and Mitigating the Label Noise in Pre-training on
Downstream Tasks [91.15120211190519]
本稿では、事前学習データセットにおけるノイズの性質を理解し、下流タスクへの影響を軽減することを目的とする。
雑音の悪影響を軽減するために特徴空間に適応する軽量ブラックボックスチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2023-09-29T06:18:15Z) - Modeling Temporal Data as Continuous Functions with Stochastic Process
Diffusion [2.2849153854336763]
時間データは、基礎となる関数の離散化測定と見なすことができる。
このようなデータの生成モデルを構築するには、そのデータを管理するプロセスをモデル化する必要があります。
本稿では,関数空間における微分拡散モデルを定義することで解を提案する。
論文 参考訳(メタデータ) (2022-11-04T17:02:01Z) - Self-Adapting Noise-Contrastive Estimation for Energy-Based Models [0.0]
ノイズコントラスト推定(NCE)を用いたトレーニングエネルギーベースモデルは理論的には実現可能であるが、実際は困難である。
従来の研究は、別個の生成モデルとしてノイズ分布をモデル化し、EBMでこのノイズモデルを同時に訓練してきた。
本論文では,EMMの静的なインスタンスを学習軌道に沿って雑音分布として利用する自己適応型NCEアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-11-03T15:17:43Z) - Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain [104.38824285741248]
ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
論文 参考訳(メタデータ) (2020-06-22T15:07:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。