論文の概要: CausalMamba: Interpretable State Space Modeling for Temporal Rumor Causality
- arxiv url: http://arxiv.org/abs/2511.16191v1
- Date: Thu, 20 Nov 2025 09:59:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.556825
- Title: CausalMamba: Interpretable State Space Modeling for Temporal Rumor Causality
- Title(参考訳): CausalMamba: 時空因果関係の解釈可能な状態空間モデリング
- Authors: Xiaotong Zhan, Xi Cheng,
- Abstract要約: CausalMambaは、Mambaベースのシーケンスモデリング、グラフ畳み込みネットワーク(GCN)、NOTEARSによる微分因果発見を統合する新しいフレームワークである。
我々のフレームワークは、噂の分類と影響分析に統一的なアプローチを提供し、より説明しやすく行動可能な誤情報検出システムを実現する。
- 参考スコア(独自算出の注目度): 4.936998293690288
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Rumor detection on social media remains a challenging task due to the complex propagation dynamics and the limited interpretability of existing models. While recent neural architectures capture content and structural features, they often fail to reveal the underlying causal mechanisms of misinformation spread. We propose CausalMamba, a novel framework that integrates Mamba-based sequence modeling, graph convolutional networks (GCNs), and differentiable causal discovery via NOTEARS. CausalMamba learns joint representations of temporal tweet sequences and reply structures, while uncovering latent causal graphs to identify influential nodes within each propagation chain. Experiments on the Twitter15 dataset show that our model achieves competitive classification performance compared to strong baselines, and uniquely enables counterfactual intervention analysis. Qualitative results demonstrate that removing top-ranked causal nodes significantly alters graph connectivity, offering interpretable insights into rumor dynamics. Our framework provides a unified approach for rumor classification and influence analysis, paving the way for more explainable and actionable misinformation detection systems.
- Abstract(参考訳): ソーシャルメディア上での噂検出は、複雑な伝播ダイナミクスと既存モデルの限定的な解釈可能性のため、依然として困難な課題である。
最近のニューラルアーキテクチャは内容や構造的特徴を捉えているが、誤情報拡散の根底にある因果的メカニズムを明らかにするのに失敗することが多い。
我々は,Mambaベースのシーケンスモデリング,GCN(Graph Convolutional Network),NOTEARSによる識別可能な因果探索を統合した新しいフレームワークCausalMambaを提案する。
CausalMambaは、時間的つぶやきシーケンスと応答構造の合同表現を学習し、遅延因果グラフを発見し、各伝播チェーン内の影響力のあるノードを識別する。
Twitter15データセットの実験では、強力なベースラインと比較して、我々のモデルは競争力のある分類性能を達成し、対実的介入分析を独自に実現している。
定性的な結果は、トップランクの因果ノードを削除することでグラフ接続が著しく変化し、噂のダイナミクスに対する解釈可能な洞察を提供することを示している。
我々のフレームワークは、噂の分類と影響分析に統一的なアプローチを提供し、より説明しやすく行動可能な誤情報検出システムを実現する。
関連論文リスト
- CausalDynamics: A large-scale benchmark for structural discovery of dynamical causal models [2.496034159762847]
CausalDynamicsは動的因果モデルの構造的発見を促進するためのフレームワークである。
我々のベンチマークは、線形および非線形に結合した常微分方程式と微分方程式の両方から導出される真の因果グラフで構成されている。
本研究では, ノイズ, 畳み込み, タグ付けされた動的システムにおいて, グラフ再構成のための最先端因果探索アルゴリズムを包括的に評価する。
論文 参考訳(メタデータ) (2025-05-22T12:54:30Z) - Neural Networks Decoded: Targeted and Robust Analysis of Neural Network Decisions via Causal Explanations and Reasoning [9.947555560412397]
本稿では、因果推論理論に基づく新しい手法TRACERを紹介し、DNN決定の根底にある因果ダイナミクスを推定する。
提案手法は入力特徴に系統的に介入し,特定の変化がネットワークを介してどのように伝播するかを観察し,内部の活性化と最終的な出力に影響を与える。
TRACERはさらに、モデルバイアスの可能性のある反ファクトを生成することで説明可能性を高め、誤分類に対する対照的な説明を提供する。
論文 参考訳(メタデータ) (2024-10-07T20:44:53Z) - Interpretable Imitation Learning with Dynamic Causal Relations [65.18456572421702]
得られた知識を有向非巡回因果グラフの形で公開することを提案する。
また、この因果発見プロセスを状態依存的に設計し、潜在因果グラフのダイナミクスをモデル化する。
提案するフレームワークは,動的因果探索モジュール,因果符号化モジュール,予測モジュールの3つの部分から構成され,エンドツーエンドで訓練される。
論文 参考訳(メタデータ) (2023-09-30T20:59:42Z) - Causal Analysis for Robust Interpretability of Neural Networks [0.2519906683279152]
我々は、事前学習されたニューラルネットワークの因果効果を捉えるための頑健な介入に基づく手法を開発した。
分類タスクで訓練された視覚モデルに本手法を適用した。
論文 参考訳(メタデータ) (2023-05-15T18:37:24Z) - Hierarchical Graph Neural Networks for Causal Discovery and Root Cause
Localization [52.72490784720227]
REASONはTopological Causal DiscoveryとPersonal Causal Discoveryで構成されている。
Topological Causal Discoveryコンポーネントは、根本原因を辿るために断層伝播をモデル化することを目的としている。
個々の因果発見コンポーネントは、単一のシステムエンティティの突然の変化パターンのキャプチャに重点を置いている。
論文 参考訳(メタデータ) (2023-02-03T20:17:45Z) - Relating Graph Neural Networks to Structural Causal Models [17.276657786213015]
因果関係は、興味のある変数とその力学関係に関する情報を伝達する構造因果モデル(SCM)によって記述することができる。
本稿では,GNNとSCMの新たな接続を確立する理論解析について述べる。
次に、GNNに基づく因果推論のための新しいモデルクラスを構築し、因果効果の同定に十分である。
論文 参考訳(メタデータ) (2021-09-09T11:16:31Z) - Amortized Causal Discovery: Learning to Infer Causal Graphs from
Time-Series Data [63.15776078733762]
本稿では,時系列データから因果関係を推定する新しいフレームワークであるAmortized Causal Discoveryを提案する。
本研究では,本手法が変分モデルとして実装され,因果発見性能が大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-06-18T19:59:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。