論文の概要: Modeling Endogenous Logic: Causal Neuro-Symbolic Reasoning Model for Explainable Multi-Behavior Recommendation
- arxiv url: http://arxiv.org/abs/2601.21335v1
- Date: Thu, 29 Jan 2026 06:51:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.6302
- Title: Modeling Endogenous Logic: Causal Neuro-Symbolic Reasoning Model for Explainable Multi-Behavior Recommendation
- Title(参考訳): 内因性論理のモデル化 : 説明可能なマルチビヘイビア勧告のための因果性ニューロシンボリック推論モデル
- Authors: Yuzhe Chen, Jie Cao, Youquan Wang, Haicheng Tao, Darko B. Vukovic, Jia Wu,
- Abstract要約: 既存のマルチ振る舞いレコメンデーションは、説明責任を犠牲にしてパフォーマンスを優先する傾向があります。
説明可能な多行動レコメンデーション(CNRE)のための新しい因果性ニューロシンボリック推論モデルを提案する。
CNREは人間のような意思決定プロセスをシミュレートすることで内因性論理を運用する。
- 参考スコア(独自算出の注目度): 9.732755856736894
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing multi-behavior recommendations tend to prioritize performance at the expense of explainability, while current explainable methods suffer from limited generalizability due to their reliance on external information. Neuro-Symbolic integration offers a promising avenue for explainability by combining neural networks with symbolic logic rule reasoning. Concurrently, we posit that user behavior chains inherently embody an endogenous logic suitable for explicit reasoning. However, these observational multiple behaviors are plagued by confounders, causing models to learn spurious correlations. By incorporating causal inference into this Neuro-Symbolic framework, we propose a novel Causal Neuro-Symbolic Reasoning model for Explainable Multi-Behavior Recommendation (CNRE). CNRE operationalizes the endogenous logic by simulating a human-like decision-making process. Specifically, CNRE first employs hierarchical preference propagation to capture heterogeneous cross-behavior dependencies. Subsequently, it models the endogenous logic rule implicit in the user's behavior chain based on preference strength, and adaptively dispatches to the corresponding neural-logic reasoning path (e.g., conjunction, disjunction). This process generates an explainable causal mediator that approximates an ideal state isolated from confounding effects. Extensive experiments on three large-scale datasets demonstrate CNRE's significant superiority over state-of-the-art baselines, offering multi-level explainability from model design and decision process to recommendation results.
- Abstract(参考訳): 既存のマルチビヘイビア・レコメンデーションは説明責任を犠牲にして性能を優先する傾向があるが、現在の説明可能な方法は外部情報に依存しているため、限定的な一般化性に悩まされている。
Neuro-Symbolic統合は、ニューラルネットワークとシンボリックロジックルール推論を組み合わせることで、説明可能性のための有望な道を提供する。
同時に、ユーザ行動連鎖は、明示的な推論に適した内在的論理を本質的に具現化していると仮定する。
しかし、これらの観察的な複数の行動は共同創設者によって悩まされ、モデルが素早い相関関係を学習する原因となった。
因果推論をこのニューロ・シンボリック・フレームワークに組み込むことにより,説明可能なマルチビヘイビア・レコメンデーション(CNRE)のための新しい因果的ニューロ・シンボリック・推論モデルを提案する。
CNREは人間のような意思決定プロセスをシミュレートすることで内因性論理を運用する。
具体的には、CNREはまず階層的な選好伝搬を用いて、異質なクロスビヘイビア依存関係をキャプチャする。
その後、好みの強さに基づいてユーザの行動連鎖に暗黙的な内在的論理ルールをモデル化し、対応する神経論理的推論パス(例えば、結合、解離)に適応的にディスパッチする。
このプロセスは説明可能な因果メディエータを生成するが、これは相反作用から分離された理想的な状態に近似する。
3つの大規模なデータセットに対する大規模な実験は、CNREが最先端のベースラインよりも大幅に優れていることを示す。
関連論文リスト
- A Comparative Study of Neurosymbolic AI Approaches to Interpretable Logical Reasoning [0.0]
ドメインに依存しないタスクを推論する能力として定義された一般的な論理的推論は、大型言語モデル(LLM)の課題であり続けている。
近年、ニューラルネットワークに論理を組み込もうとするニューロシンボリックAIへの関心が高まっている。
まず、論理的推論を改善するための2つの主要なニューロシンボリックアプローチを同定する。
論文 参考訳(メタデータ) (2025-08-05T12:14:32Z) - Towards Unified Neurosymbolic Reasoning on Knowledge Graphs [37.22138524925735]
知識グラフ推論(KG)は人工知能と知識工学の分野で大きな注目を集めている。
我々は、KG推論のための統合されたニューロシンボリック推論フレームワーク、すなわちTunsrを提案する。
論文 参考訳(メタデータ) (2025-07-04T16:29:45Z) - Think before You Simulate: Symbolic Reasoning to Orchestrate Neural Computation for Counterfactual Question Answering [9.875621856950408]
本稿では,反現実的推論のためのニューロシンボリックモデルを強化する手法を提案する。
我々は因果関係を表すために因果グラフの概念を定義する。
提案手法の有効性を2つのベンチマークで検証する。
論文 参考訳(メタデータ) (2025-06-12T14:37:11Z) - Interpretable Imitation Learning with Dynamic Causal Relations [65.18456572421702]
得られた知識を有向非巡回因果グラフの形で公開することを提案する。
また、この因果発見プロセスを状態依存的に設計し、潜在因果グラフのダイナミクスをモデル化する。
提案するフレームワークは,動的因果探索モジュール,因果符号化モジュール,予測モジュールの3つの部分から構成され,エンドツーエンドで訓練される。
論文 参考訳(メタデータ) (2023-09-30T20:59:42Z) - Continual Reasoning: Non-Monotonic Reasoning in Neurosymbolic AI using
Continual Learning [2.912595438026074]
ニューラルシンボリックシステムと連続学習の手法を組み合わせることで、Logic Networksはより高い精度を得ることができることを示す。
LTNには、知識とデータからの学習のカリキュラムをリコールで導入することにより、継続的な学習が加えられる。
結果は,非単調推論問題において有意な改善が認められた。
論文 参考訳(メタデータ) (2023-05-03T15:11:34Z) - Modeling Implicit Bias with Fuzzy Cognitive Maps [0.0]
本稿では、構造化データセットにおける暗黙バイアスを定量化するファジィ認知マップモデルを提案する。
本稿では,ニューロンの飽和を防止する正規化様伝達関数を備えた新しい推論機構を提案する。
論文 参考訳(メタデータ) (2021-12-23T17:04:12Z) - The Causal Neural Connection: Expressiveness, Learnability, and
Inference [125.57815987218756]
構造因果モデル (Structuor causal model, SCM) と呼ばれるオブジェクトは、調査中のシステムのランダムな変動のメカニズムと源の集合を表す。
本稿では, 因果的階層定理 (Thm. 1, Bareinboim et al., 2020) がまだニューラルモデルに対して成り立っていることを示す。
我々はニューラル因果モデル(NCM)と呼ばれる特殊なタイプのSCMを導入し、因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
論文 参考訳(メタデータ) (2021-07-02T01:55:18Z) - ACRE: Abstract Causal REasoning Beyond Covariation [90.99059920286484]
因果誘導における現在の視覚システムの系統的評価のための抽象因果分析データセットについて紹介する。
Blicket実験における因果発見の研究の流れに触発され、独立シナリオと介入シナリオのいずれにおいても、以下の4種類の質問で視覚的推論システムに問い合わせる。
純粋なニューラルモデルは確率レベルのパフォーマンスの下で連想戦略に向かう傾向があるのに対し、ニューロシンボリックな組み合わせは後方ブロッキングの推論に苦しむ。
論文 参考訳(メタデータ) (2021-03-26T02:42:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。