論文の概要: Channel Matters: Estimating Channel Influence for Multivariate Time Series
- arxiv url: http://arxiv.org/abs/2408.14763v2
- Date: Sun, 19 Oct 2025 07:08:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:02.247298
- Title: Channel Matters: Estimating Channel Influence for Multivariate Time Series
- Title(参考訳): チャンネル項目:多変量時系列におけるチャネルの影響の推定
- Authors: Muyao Wang, Zeke Xie, Bo Chen, Hongwei Liu, James Kwok,
- Abstract要約: MTSにおける異なるチャネルの影響を推定する新しいチャネルワイドインフルエンス(ChInf)法を提案する。
ChInfをベースとして,従来のTSタスクにChInfを組み込んだ2つのチャネルワイドアルゴリズムを自然に作成した。
我々のChInfベースの手法は、全ての比較手法の中でトップ1をランク付けするが、従来の影響関数は、MTS異常検出タスクやMTSデータプルーニング問題ではうまく機能しない。
- 参考スコア(独自算出の注目度): 21.856272334327233
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The influence function serves as an efficient post-hoc interpretability tool that quantifies the impact of training data modifications on model parameters, enabling enhanced model performance, improved generalization, and interpretability insights without the need for expensive retraining processes. Recently, Multivariate Time Series (MTS) analysis has become an important yet challenging task, attracting significant attention. While channel extremely matters to MTS tasks, channel-centric methods are still largely under-explored for MTS. Particularly, no previous work studied the effects of channel information of MTS in order to explore counterfactual effects between these channels and model performance. To fill this gap, we propose a novel Channel-wise Influence (ChInf) method that is the first to estimate the influence of different channels in MTS. Based on ChInf,we naturally derived two channel-wise algorithms by incorporating ChInf into classic MTS tasks. Extensive experiments demonstrate the effectiveness of ChInf and ChInf-based methods in critical MTS analysis tasks, such as MTS anomaly detection and MTS data pruning. Specifically, our ChInf-based methods rank top-1 among all methods for comparison, while previous influence functions do not perform well on MTS anomaly detection tasks and MTS data pruning problem. This fully supports the superiority and necessity of ChInf.
- Abstract(参考訳): このインフルエンス機能は、トレーニングデータ修正がモデルパラメータに与える影響を定量化する効率的なポストホック解釈ツールとして機能し、高価なリトレーニングプロセスを必要とせずに、モデル性能の向上、一般化の改善、および解釈可能性の洞察を可能にする。
近年,多変量時系列解析(MTS)が重要な課題となっている。
チャネルは MTS タスクにとって極めて重要であるが、チャネル中心の手法は依然として MTS では未探索である。
特に、MTSのチャネル情報の影響について、これらのチャネル間の反実的効果とモデル性能について検討する以前の研究は行われていない。
このギャップを埋めるために,MTSにおける異なるチャネルの影響を推定する新しいチャネルワイドインフルエンス(ChInf)法を提案する。
ChInfをベースとして,従来のTSタスクにChInfを組み込んだ2つのチャネルワイドアルゴリズムを自然に作成した。
MTS異常検出やMTSデータプルーニングなどの重要なMTS解析タスクにおいて、ChInfおよびChInfベースの手法の有効性が実証された。
特に,我々のChInf法は,MTS異常検出タスクやMTSデータプルーニング問題に対して,従来の影響関数がうまく機能しないのに対して,トップ1をランク付けする。
これはChInfの優位性と必要性を完全に支えている。
関連論文リスト
- Measuring Fine-Grained Relatedness in Multitask Learning via Data Attribution [10.818917537653688]
タスク関連性の測定と負の移動の軽減は、マルチタスク学習における重要なオープンチャレンジである。
本稿では,MultiTask Influence Function (MTIF) を提案する。
我々の研究は、データ属性とMLLの新たな接続を確立し、タスク関連性を測定するための効率的できめ細かいソリューションを提供する。
論文 参考訳(メタデータ) (2025-05-27T17:13:31Z) - Scalable Multi-Stage Influence Function for Large Language Models via Eigenvalue-Corrected Kronecker-Factored Parameterization [31.379237532476875]
事前訓練された大規模言語モデル(LLM)は、一般的に下流タスクに適応するように微調整される。
本稿では,学習前データに対する微調整LDMの属性予測のための多段階影響関数を提案する。
論文 参考訳(メタデータ) (2025-05-08T07:43:44Z) - Influence Functions for Scalable Data Attribution in Diffusion Models [52.92223039302037]
拡散モデルは、生成的モデリングに大きな進歩をもたらした。
しかし、彼らの普及はデータ属性と解釈可能性に関する課題を引き起こす。
本稿では,テキスト・インフルエンス・ファンクション・フレームワークを開発することにより,このような課題に対処することを目的とする。
論文 参考訳(メタデータ) (2024-10-17T17:59:02Z) - Enhancing Training Data Attribution for Large Language Models with Fitting Error Consideration [74.09687562334682]
Debias and Denoise Attribution (DDA) と呼ばれる新しいトレーニングデータ属性法を導入する。
提案手法は既存のアプローチよりも優れており,平均91.64%のAUCを実現している。
DDAは、様々なソースとLLaMA2、QWEN2、Mistralのような異なるスケールのモデルに対して、強力な汎用性とスケーラビリティを示す。
論文 参考訳(メタデータ) (2024-10-02T07:14:26Z) - Do Influence Functions Work on Large Language Models? [10.463762448166714]
影響関数は、個々のトレーニングデータポイントがモデルの予測に与える影響を定量化することを目的としている。
我々は,複数のタスクにまたがる影響関数を評価し,ほとんどの設定において不整合なパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-09-30T06:50:18Z) - Explanatory Model Monitoring to Understand the Effects of Feature Shifts on Performance [61.06245197347139]
そこで本研究では,機能シフトによるブラックボックスモデルの振る舞いを説明する新しい手法を提案する。
本稿では,最適輸送と共有値の概念を組み合わせた提案手法について,説明的性能推定として紹介する。
論文 参考訳(メタデータ) (2024-08-24T18:28:19Z) - Revisit, Extend, and Enhance Hessian-Free Influence Functions [26.105554752277648]
影響関数は、モデルの解釈、サブセットのトレーニングセットの選択などにおけるサンプルの影響を評価する重要なツールとして機能する。
本稿では,Trac として知られる特定の有効近似法を再検討する。
この方法は、ヘッセン行列の逆を恒等行列で置き換える。
論文 参考訳(メタデータ) (2024-05-25T03:43:36Z) - Bring Metric Functions into Diffusion Models [145.71911023514252]
DDPM(Denoising Diffusion Probabilistic Model)を改善するカスケード拡散モデル(Cas-DM)を導入する。
提案した拡散モデルバックボーンはLPIPS損失の有効利用を可能にし,最先端画像品質(FID, sFID, IS)を実現する。
実験結果から,提案した拡散モデルバックボーンはLPIPS損失の有効利用を可能にし,最新画像品質(FID, sFID, IS)につながることが示された。
論文 参考訳(メタデータ) (2024-01-04T18:55:01Z) - A new framework for Marketing Mix Modeling: Addressing Channel Influence Bias and Cross-Channel Effects [0.0]
本研究はマーケティングミックスモデリングにおける2つの基本的な課題に対処する: モデルが高投資チャネルに過度に寄与する傾向と、チャネル間効果の定量化の難しさである。
論文 参考訳(メタデータ) (2023-11-09T18:47:33Z) - Inf-CP: A Reliable Channel Pruning based on Channel Influence [4.692400531340393]
チャネルプルーニングの最も効果的な方法の1つは、各ニューロンの重要性に基づいてトリムを行うことである。
従来の研究は、単一層または複数の連続するニューロンの統計を考慮し、トリムすることを提案した。
我々は、アンサンブル学習を用いて、異なるデータバッチのモデルをトレーニングすることを提案する。
論文 参考訳(メタデータ) (2021-12-05T09:30:43Z) - FastIF: Scalable Influence Functions for Efficient Model Interpretation
and Debugging [112.19994766375231]
影響関数は、テスト予測のためのトレーニングデータポイントの「影響」を近似する。
fastifは、実行時間を大幅に改善する関数に影響を与えるための、単純な修正セットです。
本実験はモデル解釈とモデル誤差の修正における影響関数の可能性を示す。
論文 参考訳(メタデータ) (2020-12-31T18:02:34Z) - Influence Functions in Deep Learning Are Fragile [52.31375893260445]
影響関数は、テスト時間予測におけるサンプルの効果を近似する。
影響評価は浅いネットワークでは かなり正確です
ヘッセン正則化は、高品質な影響推定を得るために重要である。
論文 参考訳(メタデータ) (2020-06-25T18:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。