論文の概要: Glocal Information Bottleneck for Time Series Imputation
- arxiv url: http://arxiv.org/abs/2510.04910v1
- Date: Mon, 06 Oct 2025 15:24:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.938126
- Title: Glocal Information Bottleneck for Time Series Imputation
- Title(参考訳): 時系列インプットのためのローカル・インフォメーション・ボツルネック
- Authors: Jie Yang, Kexin Zhang, Guibin Zhang, Philip S. Yu, Kaize Ding,
- Abstract要約: Time Series Imputationは、時間データの欠落した値を復元することを目的としている。
既存のモデルは、通常、数値(ローカル情報)の回復に焦点をあてて、ポイントワイズ復元損失を最適化する。
我々はGlocal Information Bottleneck(Glocal-IB)という新たなトレーニングパラダイムを提案する。
- 参考スコア(独自算出の注目度): 70.41814118117311
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time Series Imputation (TSI), which aims to recover missing values in temporal data, remains a fundamental challenge due to the complex and often high-rate missingness in real-world scenarios. Existing models typically optimize the point-wise reconstruction loss, focusing on recovering numerical values (local information). However, we observe that under high missing rates, these models still perform well in the training phase yet produce poor imputations and distorted latent representation distributions (global information) in the inference phase. This reveals a critical optimization dilemma: current objectives lack global guidance, leading models to overfit local noise and fail to capture global information of the data. To address this issue, we propose a new training paradigm, Glocal Information Bottleneck (Glocal-IB). Glocal-IB is model-agnostic and extends the standard IB framework by introducing a Global Alignment loss, derived from a tractable mutual information approximation. This loss aligns the latent representations of masked inputs with those of their originally observed counterparts. It helps the model retain global structure and local details while suppressing noise caused by missing values, giving rise to better generalization under high missingness. Extensive experiments on nine datasets confirm that Glocal-IB leads to consistently improved performance and aligned latent representations under missingness. Our code implementation is available in https://github.com/Muyiiiii/NeurIPS-25-Glocal-IB.
- Abstract(参考訳): TSI(Time Series Imputation)は、時間データの欠落した値を回復することを目的としている。
既存のモデルは、通常、数値(ローカル情報)の回復に集中して、ポイントワイズ復元損失を最適化する。
しかし、これらのモデルは、高い損失率下では、トレーニング段階では良好に機能するが、推論段階では、悪い計算や歪んだ遅延表現分布(グローバル情報)を生じさせる。
現在の目標にはグローバルなガイダンスが欠如しており、局所的なノイズに過度に適合し、データのグローバルな情報をキャプチャできないモデルが導かれています。
この問題に対処するため,Glocal Information Bottleneck (Glocal-IB) という新たなトレーニングパラダイムを提案する。
Glocal-IBはモデルに依存しないものであり、トラクタブルな相互情報近似から導かれるグローバルアライメント損失を導入することで標準IBフレームワークを拡張している。
この損失は、マスクされた入力の潜在表現と、元々観測された入力の潜在表現とを一致させる。
モデルがグローバルな構造と局所的な詳細を維持するのに役立ちながら、欠落した値によるノイズを抑え、高い欠落下でのより優れた一般化をもたらす。
9つのデータセットに対する大規模な実験により、Glocal-IBはパフォーマンスを継続的に改善し、欠如の下で遅延表現をアライメントすることを確認した。
私たちのコード実装はhttps://github.com/Muyiiiii/NeurIPS-25-Glocal-IBで利用可能です。
関連論文リスト
- Revisiting Multivariate Time Series Forecasting with Missing Values [74.56971641937771]
現実の時系列では欠落値が一般的である。
現在のアプローチでは、計算モジュールを使用して、不足した値を補う、計算済みの予測フレームワークが開発されている。
このフレームワークは、致命的な問題を見落としている: 欠落した値に対して基礎的な真理は存在せず、予測精度を劣化させる可能性のあるエラーの影響を受けやすいようにしている。
本稿では,Information Bottleneck原則に基づく新しいフレームワークであるConsistency-Regularized Information Bottleneck(CRIB)を紹介する。
論文 参考訳(メタデータ) (2025-09-27T20:57:48Z) - RefiDiff: Refinement-Aware Diffusion for Efficient Missing Data Imputation [13.401822039640297]
高次元混合型データセットの欠落値は、データ計算に重大な課題をもたらす。
本稿では,ローカルな機械学習予測と,新しいマンバベースの認知ネットワークを組み合わせた,革新的なフレームワークRefiDiffを提案する。
RefiDiffは、DDPMベースのアプローチよりも4倍高速なトレーニング時間で、不足値設定でステート・ザ・アート(SOTA)メソッドをパフォーマンスします。
論文 参考訳(メタデータ) (2025-05-20T14:51:07Z) - BEVDiffLoc: End-to-End LiDAR Global Localization in BEV View based on Diffusion Model [8.720833232645155]
Bird's-Eye-View (BEV) 画像は、自動運転において最も広く採用されているデータ表現の1つである。
ポーズの条件生成としてLiDAR局所化を定式化する新しいフレームワークであるBEVDiffLocを提案する。
論文 参考訳(メタデータ) (2025-03-14T13:17:43Z) - IB-AdCSCNet:Adaptive Convolutional Sparse Coding Network Driven by Information Bottleneck [4.523653503622693]
IB-AdCSCNetは情報ボトルネック理論に基づくディープラーニングモデルである。
IB-AdCSCNetは、情報ボトルネックトレードオフ戦略をディープネットワークにシームレスに統合する。
CIFAR-10とCIFAR-100データセットの実験結果は、IB-AdCSCNetが深い残差畳み込みネットワークの性能にマッチするだけでなく、破損したデータを扱う際の性能も優れていることを示した。
論文 参考訳(メタデータ) (2024-05-23T05:35:57Z) - Integrating Local Real Data with Global Gradient Prototypes for
Classifier Re-Balancing in Federated Long-Tailed Learning [60.41501515192088]
フェデレートラーニング(FL)は、グローバルモデルを協調的にトレーニングする複数のクライアントを含む、人気のある分散ラーニングパラダイムになっています。
データサンプルは通常、現実世界の長い尾の分布に従っており、分散化された長い尾のデータのFLは、貧弱なグローバルモデルをもたらす。
本研究では、局所的な実データとグローバルな勾配のプロトタイプを統合し、局所的なバランスの取れたデータセットを形成する。
論文 参考訳(メタデータ) (2023-01-25T03:18:10Z) - Towards Understanding and Mitigating Dimensional Collapse in Heterogeneous Federated Learning [112.69497636932955]
フェデレートラーニングは、プライバシを考慮したデータ共有を必要とせずに、さまざまなクライアントでモデルをトレーニングすることを目的としている。
本研究では,データの不均一性がグローバル集約モデルの表現に与える影響について検討する。
フェデレーション学習における次元的崩壊を効果的に緩和する新しい手法である sc FedDecorr を提案する。
論文 参考訳(メタデータ) (2022-10-01T09:04:17Z) - Revisiting Communication-Efficient Federated Learning with Balanced
Global and Local Updates [14.851898446967672]
本研究では,地域研修の数とグローバルアグリゲーションの数との最適なトレードオフを調査し,分析する。
提案手法は予測精度の点で性能が向上し,ベースライン方式よりもはるかに高速に収束する。
論文 参考訳(メタデータ) (2022-05-03T13:05:26Z) - Global Update Guided Federated Learning [11.731231528534035]
フェデレーション学習は、データの代わりにモデルを交換することで、データのプライバシとセキュリティを保護する。
本稿では,局所目的関数にモデルコサイン損失を導入したグローバル更新誘導型フェデレーションラーニング(FedGG)を提案する。
数値シミュレーションにより、FedGGはモデル収束精度と速度を著しく改善していることが示された。
論文 参考訳(メタデータ) (2022-04-08T08:36:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。