論文の概要: A self-supervised learning approach for denoising autoregressive models with additive noise: finite and infinite variance cases
- arxiv url: http://arxiv.org/abs/2508.12970v1
- Date: Mon, 18 Aug 2025 14:46:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:11.382132
- Title: A self-supervised learning approach for denoising autoregressive models with additive noise: finite and infinite variance cases
- Title(参考訳): 加法雑音を伴う自己回帰モデルに対する自己教師付き学習アプローチ:有限および無限分散の場合
- Authors: Sayantan Banerjee, Agnieszka Wylomanska, Sundar S,
- Abstract要約: 応用においては、自己回帰信号は加法雑音によってしばしば破損する。
本稿では,付加的な雑音崩壊型自己回帰モデルを示す自己教師型学習手法を提案する。
- 参考スコア(独自算出の注目度): 0.9217021281095907
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The autoregressive time series model is a popular second-order stationary process, modeling a wide range of real phenomena. However, in applications, autoregressive signals are often corrupted by additive noise. Further, the autoregressive process and the corruptive noise may be highly impulsive, stemming from an infinite-variance distribution. The model estimation techniques that account for additional noise tend to show reduced efficacy when there is very strong noise present in the data, especially when the noise is heavy-tailed. Moreover, identification of a model corrupted with heavy-tailed, particularly infinite-variance noise, can be a very challenging task. In this paper, we propose a novel self-supervised learning method to denoise the additive noise-corrupted autoregressive model. Our approach is motivated by recent work in computer vision and does not require full knowledge of the noise distribution. We use the proposed method to recover exemplary finite- and infinite-variance autoregressive signals, namely, Gaussian- and alpha-stable distributed signals, respectively, from their noise-corrupted versions. The simulation study conducted on both synthetic and semi-synthetic data demonstrates the efficiency of our method compared to several baseline methods, particularly when the corruption is significant and impulsive in nature. Finally, we apply the presented methodology to forecast the pure autoregressive signal from the noise-corrupted data.
- Abstract(参考訳): 自己回帰時系列モデルは、幅広い実現象をモデル化し、人気のある2階定常過程である。
しかし、応用においては、自己回帰信号は加法雑音によってしばしば破損する。
さらに、自己回帰過程と劣化ノイズは、無限分散分布から生じる非常に衝動的である。
付加雑音を考慮したモデル推定手法は、データに非常に強いノイズが存在する場合、特にノイズが重く抑えられた場合、有効性が低下する傾向にある。
さらに、重み付き、特に無限分散雑音で破損したモデルの同定は、非常に難しい作業である。
本稿では,付加的な雑音崩壊型自己回帰モデルを示す自己教師型学習手法を提案する。
我々のアプローチはコンピュータビジョンにおける最近の研究に動機付けられており、ノイズ分布の完全な知識を必要としない。
提案手法は, 実例的有限・無限分散自己回帰信号, すなわちガウス分布信号とアルファ安定分布信号のそれぞれを, ノイズ破損バージョンから復元する。
合成法と半合成法の両方で実施したシミュレーション研究は, 汚損が有意であり, 自然界で衝動的である場合に, 基礎となるいくつかの手法と比較して, 提案手法の効率性を示す。
最後に,提案手法を適用し,ノイズ崩壊したデータから純粋な自己回帰信号を予測する。
関連論文リスト
- Machine Unlearning for Robust DNNs: Attribution-Guided Partitioning and Neuron Pruning in Noisy Environments [5.8166742412657895]
ディープニューラルネットワーク(DNN)は、さまざまなドメインで顕著な成功を収めているが、ノイズやトレーニングデータによってそのパフォーマンスが著しく低下する可能性がある。
本稿では,帰属誘導型データパーティショニング,識別的ニューロンプルーニング,およびノイズのあるサンプルの影響を軽減するための微調整を目的とした新しいフレームワークを提案する。
CIFAR-10の標準リトレーニングよりも約10%の絶対精度向上を実現し,ラベルノイズを注入した。
論文 参考訳(メタデータ) (2025-06-13T09:37:11Z) - Divide and Conquer: Heterogeneous Noise Integration for Diffusion-based Adversarial Purification [75.09791002021947]
既存の浄化法は,前向き拡散過程を通じて一定のノイズを発生させ,その後に逆の処理を行い,クリーンな例を回復させることによって,対向的摂動を妨害することを目的としている。
この方法は、前処理の均一な操作が、対向的摂動と闘いながら通常のピクセルを損なうため、根本的な欠陥がある。
ニューラルネットワークの解釈可能性に基づく異種浄化戦略を提案する。
本手法は,被写体モデルが注目する特定の画素に対して高強度雑音を決定的に印加する一方,残りの画素は低強度雑音のみを被写体とする。
論文 参考訳(メタデータ) (2025-03-03T11:00:25Z) - Dataset Distillers Are Good Label Denoisers In the Wild [16.626153947696743]
ノイズ除去にデータセット蒸留を利用する新しい手法を提案する。
本手法は,既存の手法に共通するフィードバックループを回避し,訓練効率を向上させる。
各種ノイズ条件下での3つの代表的なデータセット蒸留法(DATM, DANCE, RCIG)を厳格に評価した。
論文 参考訳(メタデータ) (2024-11-18T06:26:41Z) - Blue noise for diffusion models [50.99852321110366]
本稿では,画像内および画像間の相関雑音を考慮した拡散モデルを提案する。
我々のフレームワークは、勾配流を改善するために、1つのミニバッチ内に画像間の相関を導入することができる。
本手法を用いて,各種データセットの質的,定量的な評価を行う。
論文 参考訳(メタデータ) (2024-02-07T14:59:25Z) - Realistic Noise Synthesis with Diffusion Models [44.404059914652194]
ディープラーニングモデルには、大規模な実世界のトレーニングデータが必要です。
本稿では,これらの課題に対処するために拡散モデルを用いた新しい実音合成拡散器(RNSD)法を提案する。
論文 参考訳(メタデータ) (2023-05-23T12:56:01Z) - Improving the Robustness of Summarization Models by Detecting and
Removing Input Noise [50.27105057899601]
本研究では,様々な種類の入力ノイズから,様々なデータセットやモデルサイズに対する性能損失を定量化する大規模な実験的検討を行った。
本稿では,モデル推論中の入力中のそのようなノイズを検出し,除去するための軽量な手法を提案する。
論文 参考訳(メタデータ) (2022-12-20T00:33:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。