論文の概要: Explainable Artificial Intelligence for Economic Time Series: A Comprehensive Review and a Systematic Taxonomy of Methods and Concepts
- arxiv url: http://arxiv.org/abs/2512.12506v1
- Date: Sun, 14 Dec 2025 00:45:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.288983
- Title: Explainable Artificial Intelligence for Economic Time Series: A Comprehensive Review and a Systematic Taxonomy of Methods and Concepts
- Title(参考訳): 経済時系列のための説明可能な人工知能 : 包括的レビューと方法と概念の体系的分類
- Authors: Agustín García-García, Pablo Hidalgo, Julio E. Sandubete,
- Abstract要約: 本調査は、経済時系列のXAIに関する文献をレビューし、整理するものである。
そこで本研究では, (i) 説明機構によってメソッドを分類する分類法を提案する。
我々は、ラグの断片化と計算コストを削減する時系列固有の適応を合成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainable Artificial Intelligence (XAI) is increasingly required in computational economics, where machine-learning forecasters can outperform classical econometric models but remain difficult to audit and use for policy. This survey reviews and organizes the growing literature on XAI for economic time series, where autocorrelation, non-stationarity, seasonality, mixed frequencies, and regime shifts can make standard explanation techniques unreliable or economically implausible. We propose a taxonomy that classifies methods by (i) explanation mechanism: propagation-based approaches (e.g., Integrated Gradients, Layer-wise Relevance Propagation), perturbation and game-theoretic attribution (e.g., permutation importance, LIME, SHAP), and function-based global tools (e.g., Accumulated Local Effects); (ii) time-series compatibility, including preservation of temporal dependence, stability over time, and respect for data-generating constraints. We synthesize time-series-specific adaptations such as vector- and window-based formulations (e.g., Vector SHAP, WindowSHAP) that reduce lag fragmentation and computational cost while improving interpretability. We also connect explainability to causal inference and policy analysis through interventional attributions (Causal Shapley values) and constrained counterfactual reasoning. Finally, we discuss intrinsically interpretable architectures (notably attention-based transformers) and provide guidance for decision-grade applications such as nowcasting, stress testing, and regime monitoring, emphasizing attribution uncertainty and explanation dynamics as indicators of structural change.
- Abstract(参考訳): XAI(Explainable Artificial Intelligence)は、機械学習の予測者が古典的な計量モデルより優れているが、監査やポリシーの使用が困難である計算経済学においてますます求められている。
本調査では, 自己相関, 非定常性, 季節性, 混合周波数, 政権交代など, 経済時系列のXAIに関する文献をレビュー, 整理することにより, 標準的な説明手法を信頼できない, あるいは経済的に理解できないものにすることができる。
メソッドを分類する分類法を提案する。
(i)説明メカニズム:伝搬に基づくアプローチ(例えば、統合的グラディエント、レイヤーワイド関連伝播)、摂動とゲーム理論の属性(例えば、置換の重要性、LIME、SHAP)、関数ベースのグローバルツール(例えば、累積局所効果)
(II)時間的依存の保存、時間的安定性、データ生成制約の尊重を含む時系列互換性。
ベクトルおよびウィンドウベースの定式化(例えば、ベクトルSHAP、ウィンドウSHAP)のような時系列固有の適応を合成し、ラグの断片化と計算コストを低減し、解釈性を向上させる。
また、介入帰属(因果Shapley値)と制約された反実的推論を通じて因果推論と政策分析に説明責任を結合する。
最後に、本研究は、本質的に解釈可能なアーキテクチャ(特にアテンションベースのトランスフォーマー)について論じ、ガムキャスティング、ストレステスト、レギュラーモニタリングといった意思決定レベルのアプリケーションに対するガイダンスを提供し、構造変化の指標として属性の不確実性や説明力学を強調する。
関連論文リスト
- Towards Worst-Case Guarantees with Scale-Aware Interpretability [58.519943565092724]
ニューラルネットワークは、自然データの階層的多スケール構造に従って情報を整理する。
我々は,形式機械と解釈可能性ツールを開発するための統一的な研究課題,即時対応型解釈可能性(enmphscale-aware interpretability)を提案する。
論文 参考訳(メタデータ) (2026-02-05T01:22:31Z) - Interpretable Hybrid Deep Q-Learning Framework for IoT-Based Food Spoilage Prediction with Synthetic Data Generation and Hardware Validation [0.5417521241272645]
インテリジェントでリアルタイムな腐敗予測システムの必要性は、現代のIoT駆動食品サプライチェーンにおいて重要になっている。
本稿では,Long Short-Term Memory(LSTM)とRecurrent Neural Networks(RNN)を統合したハイブリッド強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-12-22T12:59:48Z) - Fair and Explainable Credit-Scoring under Concept Drift: Adaptive Explanation Frameworks for Evolving Populations [0.0]
動的に進化する信用モデルにおいて,解釈可能性と公平性を再検討する適応的説明フレームワークを開発する。
その結果、適応的手法、特に再ベースラインと代理に基づく説明は、時間的安定性を著しく改善し、予測精度を低下させることなく、人口集団間で異なる影響を減少させることがわかった。
これらの知見は、データ駆動型信用システムにおいて、透明性、説明責任、倫理的信頼性を維持するための実践的なメカニズムとして適応的説明可能性を確立した。
論文 参考訳(メタデータ) (2025-11-05T19:14:43Z) - From Physics to Machine Learning and Back: Part II - Learning and Observational Bias in PHM [52.64097278841485]
物理インフォームドモデリングとデータストラテジーによる学習と観察バイアスの導入は、モデルを物理的に一貫した信頼性のある予測へと導くことができるかを検討する。
メタラーニングや少数ショットラーニングなどの高速適応手法をドメイン一般化手法とともに検討する。
論文 参考訳(メタデータ) (2025-09-25T14:15:43Z) - A Survey of Reasoning and Agentic Systems in Time Series with Large Language Models [22.683448537572897]
時系列推論は時間を第一級軸として扱い、中間証拠を直接答えに組み込む。
本調査では,一段階における直接推論,明示的な中間体による線形連鎖推論,分岐構造推論という3つのファミリーによるトポロジの推論によって,問題を定義し,文献を整理する。
論文 参考訳(メタデータ) (2025-09-15T04:39:50Z) - Learning Time-Aware Causal Representation for Model Generalization in Evolving Domains [50.66049136093248]
動的因果要因と因果機構のドリフトを組み込んだ時間認識型構造因果モデル(SCM)を開発した。
本研究では,時間領域毎に最適な因果予測値が得られることを示す。
合成と実世界の両方のデータセットの結果から,SynCは時間的一般化性能に優れることが示された。
論文 参考訳(メタデータ) (2025-06-21T14:05:37Z) - Topology-Aware Conformal Prediction for Stream Networks [68.02503121089633]
本研究では,ネットワークトポロジと時間的ダイナミクスを共形予測フレームワークに統合した新しいフレームワークであるspatio-Temporal Adaptive Conformal Inference (textttCISTA)を提案する。
この結果から,TextttCISTAは予測効率とカバレッジのバランスを効果的に保ち,既存のストリームネットワークの共形予測手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2025-03-06T21:21:15Z) - Time-varying Factor Augmented Vector Autoregression with Grouped Sparse Autoencoder [4.769637827387851]
本稿では、Spyke-and-Slab Lassoを前に採用したGrouped Sparseオートエンコーダを紹介する。
時間変化パラメータをVARコンポーネントに組み込んで、進化する経済力学をよりよく捉えます。
我々の米国経済への実証的な応用は、グループスパースオートエンコーダがより解釈可能な要素を生み出すことを示す。
論文 参考訳(メタデータ) (2025-03-06T12:37:55Z) - Coarse Set Theory for AI Ethics and Decision-Making: A Mathematical Framework for Granular Evaluations [0.0]
粗い倫理 (CE) は、文字のグレードや警告ラベルなどの粗い評価を、認知的および文脈的制約の下で倫理的に適切であるものとして正当化する理論的な枠組みである。
本稿では、完全順序構造と粗い分割を用いた粗粒度決定をモデル化する新しい数学的枠組みである粗粒度集合論(CST)を紹介する。
CSTは集合間の階層的関係を定義し、Kulback-Leibler Divergenceのような情報理論ツールを使用して、単純化と情報損失の間のトレードオフを定量化する。
論文 参考訳(メタデータ) (2025-02-11T08:18:37Z) - Generic Temporal Reasoning with Differential Analysis and Explanation [61.96034987217583]
時間差分解析でギャップを埋めるTODAYという新しいタスクを導入する。
TODAYは、システムがインクリメンタルな変化の効果を正しく理解できるかどうかを評価する。
共同学習においてTODAYの指導スタイルと説明アノテーションが有効であることを示す。
論文 参考訳(メタデータ) (2022-12-20T17:40:03Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。