論文の概要: Causal Question Answering with Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2311.02760v2
- Date: Mon, 25 Mar 2024 08:57:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-27 02:35:50.846728
- Title: Causal Question Answering with Reinforcement Learning
- Title(参考訳): 強化学習による因果質問の回答
- Authors: Lukas Blübaum, Stefan Heindorf,
- Abstract要約: 因果質問は、異なる事象や現象の間の因果関係について問う。
本稿では,因果グラフを用いて因果質問に回答することを目的とする。
本稿では,因果的疑問に答えるために,グラフを探索するアクタ・クリティカル・エージェントを提案する。
- 参考スコア(独自算出の注目度): 0.3499042782396683
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Causal questions inquire about causal relationships between different events or phenomena. They are important for a variety of use cases, including virtual assistants and search engines. However, many current approaches to causal question answering cannot provide explanations or evidence for their answers. Hence, in this paper, we aim to answer causal questions with a causality graph, a large-scale dataset of causal relations between noun phrases along with the relations' provenance data. Inspired by recent, successful applications of reinforcement learning to knowledge graph tasks, such as link prediction and fact-checking, we explore the application of reinforcement learning on a causality graph for causal question answering. We introduce an Actor-Critic-based agent which learns to search through the graph to answer causal questions. We bootstrap the agent with a supervised learning procedure to deal with large action spaces and sparse rewards. Our evaluation shows that the agent successfully prunes the search space to answer binary causal questions by visiting less than 30 nodes per question compared to over 3,000 nodes by a naive breadth-first search. Our ablation study indicates that our supervised learning strategy provides a strong foundation upon which our reinforcement learning agent improves. The paths returned by our agent explain the mechanisms by which a cause produces an effect. Moreover, for each edge on a path, our causality graph provides its original source allowing for easy verification of paths.
- Abstract(参考訳): 因果質問は、異なる事象や現象の間の因果関係について問う。
仮想アシスタントや検索エンジンなど、さまざまなユースケースにおいて重要である。
しかし、因果質問応答に対する現在の多くのアプローチでは、その答えの説明や証拠は提供できない。
そこで本研究では,名詞句間の因果関係の大規模データセットである因果関係グラフを用いて因果関係の解を求める。
近年,リンク予測やファクトチェックといった知識グラフタスクへの強化学習の応用に着想を得て,因果質問応答のための因果グラフへの強化学習の適用について検討した。
本稿では,因果的疑問に答えるために,グラフを探索するアクタ・クリティカル・エージェントを提案する。
我々はエージェントを教師付き学習手順でブートストラップし、大きなアクションスペースとスパース報酬を扱う。
評価の結果,各質問に30個未満のノードを訪問することで,探索空間を突破し,二分的因果質問に答えることに成功した。
アブレーション研究は、我々の指導的学習戦略が、我々の強化学習エージェントが改善する強力な基盤となることを示唆している。
エージェントが返した経路は、原因が効果をもたらすメカニズムを説明します。
さらに、パス上の各エッジに対して、私たちの因果グラフはパスの検証を容易にするための元のソースを提供します。
関連論文リスト
- CELLO: Causal Evaluation of Large Vision-Language Models [9.928321287432365]
因果推論は人間の知性の基本であり、現実世界の環境における効果的な意思決定に不可欠である。
我々は,人間と物体の相互作用を含む因果関係の微細で統一的な定義を導入する。
我々は,4段階の因果関係に関する14,094の因果関係質問からなる新しいデータセットであるCellOを構築した。
論文 参考訳(メタデータ) (2024-06-27T12:34:52Z) - CausalQuest: Collecting Natural Causal Questions for AI Agents [95.34262362200695]
CausalQuestは、ソーシャルネットワーク、検索エンジン、AIアシスタントから得られる自然発生の質問13,500のデータセットである。
我々は因果問題の定義を定式化し、よりきめ細かい分類のための分類法を確立する。
人類が問う質問の42%は本当に因果関係であり、大多数は与えられた影響の背後にある原因を理解しようとしている。
論文 参考訳(メタデータ) (2024-05-30T17:55:28Z) - CausalLP: Learning causal relations with weighted knowledge graph link prediction [5.3454230926797734]
CausalLPは知識グラフ補完問題として不完全因果ネットワークの問題を定式化している。
因果関係を表す知識グラフを使うことで、外部のドメイン知識の統合が可能になる。
CausalLPでは、因果的説明と因果的予測という2つの主要なタスクがサポートされている。
論文 参考訳(メタデータ) (2024-04-23T20:50:06Z) - CORE: Towards Scalable and Efficient Causal Discovery with Reinforcement
Learning [2.7446241148152253]
COREは、因果発見と介入計画のための強化学習に基づくアプローチである。
その結果,COREは未知のグラフに一般化し,因果構造を効率的に発見できることがわかった。
COREは最大10変数のグラフにスケールし、構造推定精度とサンプル効率において既存のアプローチより優れている。
論文 参考訳(メタデータ) (2024-01-30T12:57:52Z) - Probabilistic Tree-of-thought Reasoning for Answering
Knowledge-intensive Complex Questions [93.40614719648386]
大規模言語モデル(LLM)は、知識集約的な複雑な質問にチェーン・オブ・シント(CoT)推論で答えることができる。
最近の研究は、CoT推論を強化するための外部知識の回収に向けられている。
確率的ツリー・オブ・シント推論(ProbTree)という新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-11-23T12:52:37Z) - Reasoning about Causality in Games [63.930126666879396]
因果推論とゲーム理論推論は人工知能の基本的なトピックである。
本稿では,エージェントの意思決定ルールとゲームを管理する分布の依存関係をエンコードするメカニケードゲームを紹介する。
因果ゲームと他の形式主義の対応を記述し、他の因果ゲームやゲーム理論モデルがサポートしていない問合せにどのように因果ゲームが使えるかを説明する。
論文 参考訳(メタデータ) (2023-01-05T22:47:28Z) - Active Bayesian Causal Inference [72.70593653185078]
因果発見と推論を統合するための完全ベイズ能動学習フレームワークであるアクティブベイズ因果推論(ABCI)を提案する。
ABCIは因果関係のモデルと関心のクエリを共同で推論する。
我々のアプローチは、完全な因果グラフの学習のみに焦点を当てた、いくつかのベースラインよりも、よりデータ効率が高いことを示す。
論文 参考訳(メタデータ) (2022-06-04T22:38:57Z) - Tell me why! -- Explanations support learning of relational and causal
structure [24.434551113103105]
説明は人間の学習において重要な役割を担い、特にAIにとって大きな課題が残る分野においてである。
我々は、強化学習エージェントが説明の恩恵を受ける可能性があることを示す。
我々の結果は、説明からの学習が強力な原則であり、より堅牢で一般的な機械学習システムのトレーニングに有望な道筋を提供することを示唆している。
論文 参考訳(メタデータ) (2021-12-07T15:09:06Z) - Systematic Evaluation of Causal Discovery in Visual Model Based
Reinforcement Learning [76.00395335702572]
AIと因果関係の中心的な目標は、抽象表現と因果構造を共同で発見することである。
因果誘導を研究するための既存の環境は、複雑なタスク固有の因果グラフを持つため、この目的には適していない。
本研究の目的は,高次変数の学習表現と因果構造の研究を促進することである。
論文 参考訳(メタデータ) (2021-07-02T05:44:56Z) - To do or not to do: finding causal relations in smart homes [2.064612766965483]
本稿では,環境と観測データの混合実験から因果モデルを学ぶための新しい手法を提案する。
我々の手法の核心は、選択された介入の使用であり、特に、介入が不可能な変数を考慮に入れた学習である。
本手法をスマートホームシミュレーション,すなわち因果関係を知ることが説明可能なシステムへの道を開くユースケースに応用する。
論文 参考訳(メタデータ) (2021-05-20T22:36:04Z) - Knowledge-Routed Visual Question Reasoning: Challenges for Deep
Representation Embedding [140.5911760063681]
VQAモデル評価のためのナレッジルーティング視覚質問推論という新しいデータセットを提案する。
視覚ゲノムシーングラフと外部知識ベースの両方に基づいて,制御プログラムを用いて質問応答対を生成する。
論文 参考訳(メタデータ) (2020-12-14T00:33:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。