論文の概要: RINS-T: Robust Implicit Neural Solvers for Time Series Linear Inverse Problems
- arxiv url: http://arxiv.org/abs/2510.17396v1
- Date: Mon, 20 Oct 2025 10:38:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.413522
- Title: RINS-T: Robust Implicit Neural Solvers for Time Series Linear Inverse Problems
- Title(参考訳): RINS-T: 時系列線形逆問題に対するロバスト入射ニューラルネットワーク
- Authors: Keivan Faghih Niresi, Zepeng Zhang, Olga Fink,
- Abstract要約: 時系列データは、しばしば、欠落値、ノイズ、外れ値など、様々な形態の汚職の影響を受けます。
逆問題では、その構造に関する事前の知識を活用して、破損したデータから元の信号を再構成することに焦点を当てている。
本稿では,データの事前学習を必要とせず,高い回復性を実現する新しいフレームワークであるRINS-Tを提案する。
- 参考スコア(独自算出の注目度): 17.871280828268507
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Time series data are often affected by various forms of corruption, such as missing values, noise, and outliers, which pose significant challenges for tasks such as forecasting and anomaly detection. To address these issues, inverse problems focus on reconstructing the original signal from corrupted data by leveraging prior knowledge about its underlying structure. While deep learning methods have demonstrated potential in this domain, they often require extensive pretraining and struggle to generalize under distribution shifts. In this work, we propose RINS-T (Robust Implicit Neural Solvers for Time Series Linear Inverse Problems), a novel deep prior framework that achieves high recovery performance without requiring pretraining data. RINS-T leverages neural networks as implicit priors and integrates robust optimization techniques, making it resilient to outliers while relaxing the reliance on Gaussian noise assumptions. To further improve optimization stability and robustness, we introduce three key innovations: guided input initialization, input perturbation, and convex output combination techniques. Each of these contributions strengthens the framework's optimization stability and robustness. These advancements make RINS-T a flexible and effective solution for addressing complex real-world time series challenges. Our code is available at https://github.com/EPFL-IMOS/RINS-T.
- Abstract(参考訳): 時系列データは、しばしば、値の欠落、ノイズ、外れ値などの様々な形態の汚職の影響を受け、予測や異常検出といったタスクに重大な課題を生じさせる。
これらの問題に対処するために、逆問題は、その基盤構造に関する事前知識を活用することにより、破損したデータから元の信号を再構成することに集中する。
深層学習の手法はこの領域の可能性を証明してきたが、広範に事前学習が必要であり、分散シフトの下で一般化するのに苦労することが多い。
本研究では, RINS-T(Robust Implicit Neural Solvers for Time Series Linear Inverse Problems)を提案する。
RINS-Tはニューラルネットワークを暗黙の先行手法として利用し、堅牢な最適化手法を統合することにより、ガウス雑音の仮定への依存を緩和しつつ、外れ値に耐性を持つ。
最適化の安定性とロバスト性をさらに向上するために、誘導入力初期化、入力摂動、凸出力の組み合わせ技術という3つの重要な革新を導入する。
それぞれのコントリビューションは、フレームワークの最適化の安定性と堅牢性を強化します。
これらの進歩により、RINS-Tは複雑な実世界の時系列問題に対処するための柔軟で効果的なソリューションとなる。
私たちのコードはhttps://github.com/EPFL-IMOS/RINS-T.comで利用可能です。
関連論文リスト
- Noise Hypernetworks: Amortizing Test-Time Compute in Diffusion Models [57.49136894315871]
テストタイムスケーリングの新しいパラダイムは、推論モデルと生成視覚モデルにおいて驚くべきブレークスルーをもたらした。
本稿では,テスト時間スケーリングの知識をモデルに組み込むことの課題に対する1つの解決策を提案する。
拡散モデルにおいて、初期入力ノイズを変調するノイズハイパーネットワークにより、報酬誘導試験時間雑音の最適化を行う。
論文 参考訳(メタデータ) (2025-08-13T17:33:37Z) - HiPreNets: High-Precision Neural Networks through Progressive Training [1.5429976366871665]
我々は、HiPreNets(HiPreNets)のチューニングと高精度ニューラルネットワークのためのフレームワークを提案する。
我々のアプローチは、ニューラルネットワークの以前に検討されたトレーニングテクニックを洗練します。
選択損失関数数パラメーターを導出するために,残差の構造を利用する方法について議論する。
論文 参考訳(メタデータ) (2025-06-18T02:12:24Z) - ChronoGAN: Supervised and Embedded Generative Adversarial Networks for Time Series Generation [0.9374652839580181]
これらの問題を効果的に解決し緩和することを目的とした堅牢なフレームワークを導入します。
このフレームワークは、Autoencoderの生成した埋め込み空間の利点と、GANの対角的トレーニングダイナミクスを統合する。
我々は、安定度を高め、短命連続と短命連続の両方で効果的な一般化を保証するために、初期生成アルゴリズムと改良されたニューラルネットワークアーキテクチャを導入する。
論文 参考訳(メタデータ) (2024-09-21T04:51:35Z) - PRISTA-Net: Deep Iterative Shrinkage Thresholding Network for Coded
Diffraction Patterns Phase Retrieval [6.982256124089]
位相検索は、計算画像および画像処理における非線型逆問題である。
我々は,1次反復しきい値しきい値アルゴリズム(ISTA)に基づく深層展開ネットワークであるPRISTA-Netを開発した。
非線形変換,しきい値,ステップサイズなど,提案するPRISTA-Netフレームワークのパラメータはすべて,設定されるのではなく,エンドツーエンドで学習される。
論文 参考訳(メタデータ) (2023-09-08T07:37:15Z) - Conditional Denoising Diffusion for Sequential Recommendation [62.127862728308045]
GAN(Generative Adversarial Networks)とVAE(VAE)の2つの顕著な生成モデル
GANは不安定な最適化に苦しむ一方、VAEは後続の崩壊と過度に平らな世代である。
本稿では,シーケンスエンコーダ,クロスアテンティブデノナイジングデコーダ,ステップワイズディフューザを含む条件付きデノナイジング拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-04-22T15:32:59Z) - To be or not to be stable, that is the question: understanding neural
networks for inverse problems [0.0]
本稿では,ニューラルネットワークの安定性と精度のトレードオフを理論的に解析する。
ネットワークの安定性を高め、良好な精度を維持するために、異なる教師付きおよび教師なしのソリューションを提案する。
論文 参考訳(メタデータ) (2022-11-24T16:16:40Z) - Robust lEarned Shrinkage-Thresholding (REST): Robust unrolling for
sparse recover [87.28082715343896]
我々は、モデルミス特定を前進させるのに堅牢な逆問題を解決するためのディープニューラルネットワークについて検討する。
我々は,アルゴリズムの展開手法を根底にある回復問題のロバストバージョンに適用することにより,新しい堅牢なディープニューラルネットワークアーキテクチャを設計する。
提案したRESTネットワークは,圧縮センシングとレーダイメージングの両問題において,最先端のモデルベースおよびデータ駆動アルゴリズムを上回る性能を示す。
論文 参考訳(メタデータ) (2021-10-20T06:15:45Z) - Phase Retrieval using Expectation Consistent Signal Recovery Algorithm
based on Hypernetwork [73.94896986868146]
位相検索は現代の計算イメージングシステムにおいて重要な要素である。
近年のディープラーニングの進歩は、堅牢で高速なPRの新たな可能性を開いた。
我々は、既存の制限を克服するために、深層展開のための新しいフレームワークを開発する。
論文 参考訳(メタデータ) (2021-01-12T08:36:23Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - Revisiting Initialization of Neural Networks [72.24615341588846]
ヘッセン行列のノルムを近似し, 制御することにより, 層間における重みのグローバルな曲率を厳密に推定する。
Word2Vec と MNIST/CIFAR 画像分類タスクの実験により,Hessian ノルムの追跡が診断ツールとして有用であることが確認された。
論文 参考訳(メタデータ) (2020-04-20T18:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。