論文の概要: Controllable Logical Hypothesis Generation for Abductive Reasoning in Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2505.20948v1
- Date: Tue, 27 May 2025 09:36:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.550272
- Title: Controllable Logical Hypothesis Generation for Abductive Reasoning in Knowledge Graphs
- Title(参考訳): 知識グラフにおける帰納的推論のための制御可能な論理仮説生成
- Authors: Yisen Gao, Jiaxin Bai, Tianshi Zheng, Qingyun Sun, Ziwei Zhang, Jianxin Li, Yangqiu Song, Xingcheng Fu,
- Abstract要約: 知識グラフの帰納的推論は、観測された実体からもっともらしい論理的仮説を生成することを目的としている。
可制御性の欠如により、単一の観測は、多くの妥当だが冗長あるいは無関係な仮説をもたらす可能性がある。
帰納的推論の実用性を改善するために,制御可能な仮説生成タスクを導入する。
- 参考スコア(独自算出の注目度): 54.596180382762036
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Abductive reasoning in knowledge graphs aims to generate plausible logical hypotheses from observed entities, with broad applications in areas such as clinical diagnosis and scientific discovery. However, due to a lack of controllability, a single observation may yield numerous plausible but redundant or irrelevant hypotheses on large-scale knowledge graphs. To address this limitation, we introduce the task of controllable hypothesis generation to improve the practical utility of abductive reasoning. This task faces two key challenges when controlling for generating long and complex logical hypotheses: hypothesis space collapse and hypothesis oversensitivity. To address these challenges, we propose CtrlHGen, a Controllable logcial Hypothesis Generation framework for abductive reasoning over knowledge graphs, trained in a two-stage paradigm including supervised learning and subsequent reinforcement learning. To mitigate hypothesis space collapse, we design a dataset augmentation strategy based on sub-logical decomposition, enabling the model to learn complex logical structures by leveraging semantic patterns in simpler components. To address hypothesis oversensitivity, we incorporate smoothed semantic rewards including Dice and Overlap scores, and introduce a condition-adherence reward to guide the generation toward user-specified control constraints. Extensive experiments on three benchmark datasets demonstrate that our model not only better adheres to control conditions but also achieves superior semantic similarity performance compared to baselines.
- Abstract(参考訳): 知識グラフの帰納的推論は、臨床診断や科学的発見などの分野に広く応用され、観察された実体からもっともらしい論理仮説を生成することを目的としている。
しかし、制御可能性の欠如により、大規模な知識グラフ上では、単一の観測によって多くの妥当だが冗長あるいは無関係な仮説が生み出される可能性がある。
この制限に対処するために、帰納的推論の実用性を改善するために、制御可能な仮説生成のタスクを導入する。
このタスクは、仮説空間の崩壊と仮説過敏という、長く複雑な論理仮説を生成するための制御において、2つの重要な課題に直面している。
これらの課題に対処するために,知識グラフを用いた帰納的推論のための制御可能な対数仮説生成フレームワークであるCtrlHGenを提案する。
仮説空間の崩壊を緩和するため、サブ論理的分解に基づくデータセット拡張戦略を設計し、より単純なコンポーネントのセマンティックパターンを利用して複雑な論理構造を学習することを可能にする。
仮説過敏に対処するために、DiceやOverlapスコアを含むスムーズなセマンティック報酬を導入し、条件順応報酬を導入し、ユーザ特定制御制約に向けて生成を誘導する。
3つのベンチマークデータセットの大規模な実験により、我々のモデルは制御条件に順応するだけでなく、ベースラインよりもセマンティックな類似性性能が優れていることが示された。
関連論文リスト
- Causality can systematically address the monsters under the bench(marks) [64.36592889550431]
ベンチマークはさまざまなバイアス、アーティファクト、リークに悩まされている。
モデルは、調査の不十分な障害モードのため、信頼できない振る舞いをする可能性がある。
因果関係はこれらの課題を体系的に解決するための 理想的な枠組みを提供します
論文 参考訳(メタデータ) (2025-02-07T17:01:37Z) - Graph Stochastic Neural Process for Inductive Few-shot Knowledge Graph Completion [63.68647582680998]
I-FKGC(inductive few-shot knowledge graph completion)と呼ばれる課題に焦点をあてる。
帰納的推論(inductive reasoning)の概念に着想を得て,I-FKGCを帰納的推論問題とした。
本稿では,仮説の連成分布をモデル化したニューラルプロセスに基づく仮説抽出器を提案する。
第2のモジュールでは、この仮説に基づいて、クエリセットのトリプルが抽出された仮説と一致するかどうかをテストするグラフアテンションベースの予測器を提案する。
論文 参考訳(メタデータ) (2024-08-03T13:37:40Z) - Advancing Abductive Reasoning in Knowledge Graphs through Complex Logical Hypothesis Generation [43.26412690886471]
本稿では,知識グラフを用いた帰納的論理的推論への最初のステップとして,複雑な論理的仮説生成の課題を紹介する。
教師付き学習された生成モデルは、参照仮説に構造的に近い論理仮説を生成することができる。
本稿では, 知識グラフによる強化学習(Reinforcement Learning from Knowledge Graph, RLF-KG)手法を提案する。
論文 参考訳(メタデータ) (2023-12-25T08:06:20Z) - Interpretable Imitation Learning with Dynamic Causal Relations [65.18456572421702]
得られた知識を有向非巡回因果グラフの形で公開することを提案する。
また、この因果発見プロセスを状態依存的に設計し、潜在因果グラフのダイナミクスをモデル化する。
提案するフレームワークは,動的因果探索モジュール,因果符号化モジュール,予測モジュールの3つの部分から構成され,エンドツーエンドで訓練される。
論文 参考訳(メタデータ) (2023-09-30T20:59:42Z) - Learn to Accumulate Evidence from All Training Samples: Theory and
Practice [7.257751371276488]
Evidential Deep Learningは、決定論的ニューラルネットワークの不確実性を認識するための、原則的かつ計算的に効率的な方法を提供する。
既存の明らかなアクティベーション関数はゼロエビデンス領域を生成するため、モデルがそのような領域に落ちてくるトレーニングサンプルから学ぶことができない。
我々の理論的基盤に基づく顕在的活性化関数のより深い分析は、新しい正則化器の設計を刺激する。
論文 参考訳(メタデータ) (2023-06-19T18:27:12Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。