論文の概要: Causal Question Answering with Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2311.02760v1
- Date: Sun, 5 Nov 2023 20:33:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 16:03:16.369917
- Title: Causal Question Answering with Reinforcement Learning
- Title(参考訳): 強化学習による因果質問応答
- Authors: Lukas Bl\"ubaum, Stefan Heindorf
- Abstract要約: 因果質問は、異なる事象や現象の間の因果関係について問う。
本稿では, 因果質問に答えるために, グラフを探索することを学ぶアクタ・クリティカル・エージェントを紹介する。
パス上の各エッジに対して、CouchNetは元のソースをWebに保存し、パスの検証を容易にする。
- 参考スコア(独自算出の注目度): 0.30458514384586405
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Causal questions inquire about causal relationships between different events
or phenomena. Specifically, they often aim to determine whether there is a
relationship between two phenomena, or to identify all causes/effects of a
phenomenon. Causal questions are important for a variety of use cases,
including virtual assistants and search engines. However, many current
approaches to causal question answering cannot provide explanations or evidence
for their answers. Hence, in this paper, we aim to answer causal questions with
CauseNet, a large-scale dataset of causal relations and their provenance data.
Inspired by recent, successful applications of reinforcement learning to
knowledge graph tasks, such as link prediction and fact-checking, we explore
the application of reinforcement learning on CauseNet for causal question
answering. We introduce an Actor-Critic based agent which learns to search
through the graph to answer causal questions. We bootstrap the agent with a
supervised learning procedure to deal with large action spaces and sparse
rewards. Our evaluation shows that the agent successfully prunes the search
space to answer binary causal questions by visiting less than 30 nodes per
question compared to over 3,000 nodes by a naive breadth-first search. Our
ablation study indicates that our supervised learning strategy provides a
strong foundation upon which our reinforcement learning agent improves. The
paths returned by our agent explain the mechanisms by which a cause produces an
effect. Moreover, for each edge on a path, CauseNet stores its original source
on the web allowing for easy verification of paths.
- Abstract(参考訳): 因果問題 異なる出来事や現象の間の因果関係について問う。
具体的には、2つの現象の間に関係があるかどうかを判断することや、現象のすべての原因や影響を特定することを目的としている。
因果質問は、仮想アシスタントや検索エンジンなど、さまざまなユースケースにおいて重要である。
しかし、因果質問応答に対する現在の多くのアプローチでは、その答えの説明や証拠は提供できない。
そこで,本稿では,因果関係の大規模データセットである causenet を用いて,因果関係とその起因関係データの解答を試みる。
近年,リンク予測やファクトチェックといった知識グラフタスクへの強化学習の応用に着想を得て,因果質問応答における強化学習の適用について検討した。
因果関係の質問に答えるために,グラフを検索することを学ぶアクタ・クリティック・ベースのエージェントを提案する。
我々はエージェントを教師付き学習手順でブートストラップし、大きなアクションスペースとスパース報酬を扱う。
評価の結果,各質問に30個未満のノードを訪問することで,探索空間を突破し,二分的因果質問に答えることに成功した。
我々のアブレーション研究は,強化学習エージェントが改善する強固な基盤を,教師付き学習戦略が与えていることを示している。
エージェントが返した経路は、原因が効果をもたらすメカニズムを説明します。
さらに、パス上の各エッジに対して、CouchNetは元のソースをWebに保存し、パスの検証を容易にする。
関連論文リスト
- Konstruktor: A Strong Baseline for Simple Knowledge Graph Question Answering [60.6042489577575]
Konstruktor - 問題を3つのステップに分割する,効率的で堅牢なアプローチ。
我々のアプローチは言語モデルと知識グラフを統合し、前者の力と後者の解釈可能性を活用する。
関係検出において、ワークフローの最も困難なステップとして、関係分類・生成とランク付けの組み合わせが、他の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-09-24T09:19:11Z) - Unsupervised Pairwise Causal Discovery on Heterogeneous Data using Mutual Information Measures [49.1574468325115]
因果発見(Causal Discovery)は、構成変数の統計的性質を分析することで、この問題に取り組む手法である。
教師付き学習によって得られたことに基づいて,現在の(おそらく誤解を招く)ベースライン結果に疑問を呈する。
その結果、堅牢な相互情報測定を用いて、教師なしの方法でこの問題にアプローチする。
論文 参考訳(メタデータ) (2024-08-01T09:11:08Z) - CELLO: Causal Evaluation of Large Vision-Language Models [9.928321287432365]
因果推論は人間の知性の基本であり、現実世界の環境における効果的な意思決定に不可欠である。
我々は,人間と物体の相互作用を含む因果関係の微細で統一的な定義を導入する。
我々は,4段階の因果関係に関する14,094の因果関係質問からなる新しいデータセットであるCellOを構築した。
論文 参考訳(メタデータ) (2024-06-27T12:34:52Z) - CausalLP: Learning causal relations with weighted knowledge graph link prediction [5.3454230926797734]
CausalLPは知識グラフ補完問題として不完全因果ネットワークの問題を定式化している。
因果関係を表す知識グラフを使うことで、外部のドメイン知識の統合が可能になる。
CausalLPでは、因果的説明と因果的予測という2つの主要なタスクがサポートされている。
論文 参考訳(メタデータ) (2024-04-23T20:50:06Z) - CORE: Towards Scalable and Efficient Causal Discovery with Reinforcement
Learning [2.7446241148152253]
COREは、因果発見と介入計画のための強化学習に基づくアプローチである。
その結果,COREは未知のグラフに一般化し,因果構造を効率的に発見できることがわかった。
COREは最大10変数のグラフにスケールし、構造推定精度とサンプル効率において既存のアプローチより優れている。
論文 参考訳(メタデータ) (2024-01-30T12:57:52Z) - Probabilistic Tree-of-thought Reasoning for Answering
Knowledge-intensive Complex Questions [93.40614719648386]
大規模言語モデル(LLM)は、知識集約的な複雑な質問にチェーン・オブ・シント(CoT)推論で答えることができる。
最近の研究は、CoT推論を強化するための外部知識の回収に向けられている。
確率的ツリー・オブ・シント推論(ProbTree)という新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-11-23T12:52:37Z) - Active Bayesian Causal Inference [72.70593653185078]
因果発見と推論を統合するための完全ベイズ能動学習フレームワークであるアクティブベイズ因果推論(ABCI)を提案する。
ABCIは因果関係のモデルと関心のクエリを共同で推論する。
我々のアプローチは、完全な因果グラフの学習のみに焦点を当てた、いくつかのベースラインよりも、よりデータ効率が高いことを示す。
論文 参考訳(メタデータ) (2022-06-04T22:38:57Z) - Tell me why! -- Explanations support learning of relational and causal
structure [24.434551113103105]
説明は人間の学習において重要な役割を担い、特にAIにとって大きな課題が残る分野においてである。
我々は、強化学習エージェントが説明の恩恵を受ける可能性があることを示す。
我々の結果は、説明からの学習が強力な原則であり、より堅牢で一般的な機械学習システムのトレーニングに有望な道筋を提供することを示唆している。
論文 参考訳(メタデータ) (2021-12-07T15:09:06Z) - Systematic Evaluation of Causal Discovery in Visual Model Based
Reinforcement Learning [76.00395335702572]
AIと因果関係の中心的な目標は、抽象表現と因果構造を共同で発見することである。
因果誘導を研究するための既存の環境は、複雑なタスク固有の因果グラフを持つため、この目的には適していない。
本研究の目的は,高次変数の学習表現と因果構造の研究を促進することである。
論文 参考訳(メタデータ) (2021-07-02T05:44:56Z) - To do or not to do: finding causal relations in smart homes [2.064612766965483]
本稿では,環境と観測データの混合実験から因果モデルを学ぶための新しい手法を提案する。
我々の手法の核心は、選択された介入の使用であり、特に、介入が不可能な変数を考慮に入れた学習である。
本手法をスマートホームシミュレーション,すなわち因果関係を知ることが説明可能なシステムへの道を開くユースケースに応用する。
論文 参考訳(メタデータ) (2021-05-20T22:36:04Z) - Knowledge-Routed Visual Question Reasoning: Challenges for Deep
Representation Embedding [140.5911760063681]
VQAモデル評価のためのナレッジルーティング視覚質問推論という新しいデータセットを提案する。
視覚ゲノムシーングラフと外部知識ベースの両方に基づいて,制御プログラムを用いて質問応答対を生成する。
論文 参考訳(メタデータ) (2020-12-14T00:33:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。