論文の概要: Causal Question Answering with Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2311.02760v1
- Date: Sun, 5 Nov 2023 20:33:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 16:03:16.369917
- Title: Causal Question Answering with Reinforcement Learning
- Title(参考訳): 強化学習による因果質問応答
- Authors: Lukas Bl\"ubaum, Stefan Heindorf
- Abstract要約: 因果質問は、異なる事象や現象の間の因果関係について問う。
本稿では, 因果質問に答えるために, グラフを探索することを学ぶアクタ・クリティカル・エージェントを紹介する。
パス上の各エッジに対して、CouchNetは元のソースをWebに保存し、パスの検証を容易にする。
- 参考スコア(独自算出の注目度): 0.30458514384586405
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Causal questions inquire about causal relationships between different events
or phenomena. Specifically, they often aim to determine whether there is a
relationship between two phenomena, or to identify all causes/effects of a
phenomenon. Causal questions are important for a variety of use cases,
including virtual assistants and search engines. However, many current
approaches to causal question answering cannot provide explanations or evidence
for their answers. Hence, in this paper, we aim to answer causal questions with
CauseNet, a large-scale dataset of causal relations and their provenance data.
Inspired by recent, successful applications of reinforcement learning to
knowledge graph tasks, such as link prediction and fact-checking, we explore
the application of reinforcement learning on CauseNet for causal question
answering. We introduce an Actor-Critic based agent which learns to search
through the graph to answer causal questions. We bootstrap the agent with a
supervised learning procedure to deal with large action spaces and sparse
rewards. Our evaluation shows that the agent successfully prunes the search
space to answer binary causal questions by visiting less than 30 nodes per
question compared to over 3,000 nodes by a naive breadth-first search. Our
ablation study indicates that our supervised learning strategy provides a
strong foundation upon which our reinforcement learning agent improves. The
paths returned by our agent explain the mechanisms by which a cause produces an
effect. Moreover, for each edge on a path, CauseNet stores its original source
on the web allowing for easy verification of paths.
- Abstract(参考訳): 因果問題 異なる出来事や現象の間の因果関係について問う。
具体的には、2つの現象の間に関係があるかどうかを判断することや、現象のすべての原因や影響を特定することを目的としている。
因果質問は、仮想アシスタントや検索エンジンなど、さまざまなユースケースにおいて重要である。
しかし、因果質問応答に対する現在の多くのアプローチでは、その答えの説明や証拠は提供できない。
そこで,本稿では,因果関係の大規模データセットである causenet を用いて,因果関係とその起因関係データの解答を試みる。
近年,リンク予測やファクトチェックといった知識グラフタスクへの強化学習の応用に着想を得て,因果質問応答における強化学習の適用について検討した。
因果関係の質問に答えるために,グラフを検索することを学ぶアクタ・クリティック・ベースのエージェントを提案する。
我々はエージェントを教師付き学習手順でブートストラップし、大きなアクションスペースとスパース報酬を扱う。
評価の結果,各質問に30個未満のノードを訪問することで,探索空間を突破し,二分的因果質問に答えることに成功した。
我々のアブレーション研究は,強化学習エージェントが改善する強固な基盤を,教師付き学習戦略が与えていることを示している。
エージェントが返した経路は、原因が効果をもたらすメカニズムを説明します。
さらに、パス上の各エッジに対して、CouchNetは元のソースをWebに保存し、パスの検証を容易にする。
関連論文リスト
- Why Online Reinforcement Learning is Causal [37.32846024474085]
強化学習(RL)と因果モデリングは自然に相互に補完する。
本稿では、因果モデリングのメリットを期待できる強化学習設定について検討する。
論文 参考訳(メタデータ) (2024-03-07T04:49:48Z) - CORE: Towards Scalable and Efficient Causal Discovery with Reinforcement
Learning [2.7446241148152253]
COREは、因果発見と介入計画のための強化学習に基づくアプローチである。
その結果,COREは未知のグラフに一般化し,因果構造を効率的に発見できることがわかった。
COREは最大10変数のグラフにスケールし、構造推定精度とサンプル効率において既存のアプローチより優れている。
論文 参考訳(メタデータ) (2024-01-30T12:57:52Z) - Sim-to-Real Causal Transfer: A Metric Learning Approach to
Causally-Aware Interaction Representations [62.48505112245388]
エージェント相互作用の現代的表現の因果認識を詳細に検討する。
近年の表現は、非因果剤の摂動に対して部分的に耐性があることが示されている。
因果アノテーションを用いた潜在表現を正規化するための計量学習手法を提案する。
論文 参考訳(メタデータ) (2023-12-07T18:57:03Z) - Probabilistic Tree-of-thought Reasoning for Answering
Knowledge-intensive Complex Questions [93.40614719648386]
大規模言語モデル(LLM)は、知識集約的な複雑な質問にチェーン・オブ・シント(CoT)推論で答えることができる。
最近の研究は、CoT推論を強化するための外部知識の回収に向けられている。
確率的ツリー・オブ・シント推論(ProbTree)という新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-11-23T12:52:37Z) - Reasoning about Causality in Games [63.930126666879396]
因果推論とゲーム理論推論は人工知能の基本的なトピックである。
本稿では,エージェントの意思決定ルールとゲームを管理する分布の依存関係をエンコードするメカニケードゲームを紹介する。
因果ゲームと他の形式主義の対応を記述し、他の因果ゲームやゲーム理論モデルがサポートしていない問合せにどのように因果ゲームが使えるかを説明する。
論文 参考訳(メタデータ) (2023-01-05T22:47:28Z) - Deep Causal Learning: Representation, Discovery and Inference [4.667493820893912]
この記事では、ディープラーニングが因果学習にどのように貢献するかを包括的にレビューする。
我々は、因果科学の理論的拡張と応用拡大には深い因果学習が重要であることを指摘する。
論文 参考訳(メタデータ) (2022-11-07T09:00:33Z) - Active Bayesian Causal Inference [72.70593653185078]
因果発見と推論を統合するための完全ベイズ能動学習フレームワークであるアクティブベイズ因果推論(ABCI)を提案する。
ABCIは因果関係のモデルと関心のクエリを共同で推論する。
我々のアプローチは、完全な因果グラフの学習のみに焦点を当てた、いくつかのベースラインよりも、よりデータ効率が高いことを示す。
論文 参考訳(メタデータ) (2022-06-04T22:38:57Z) - Tell me why! -- Explanations support learning of relational and causal
structure [24.434551113103105]
説明は人間の学習において重要な役割を担い、特にAIにとって大きな課題が残る分野においてである。
我々は、強化学習エージェントが説明の恩恵を受ける可能性があることを示す。
我々の結果は、説明からの学習が強力な原則であり、より堅牢で一般的な機械学習システムのトレーニングに有望な道筋を提供することを示唆している。
論文 参考訳(メタデータ) (2021-12-07T15:09:06Z) - Systematic Evaluation of Causal Discovery in Visual Model Based
Reinforcement Learning [76.00395335702572]
AIと因果関係の中心的な目標は、抽象表現と因果構造を共同で発見することである。
因果誘導を研究するための既存の環境は、複雑なタスク固有の因果グラフを持つため、この目的には適していない。
本研究の目的は,高次変数の学習表現と因果構造の研究を促進することである。
論文 参考訳(メタデータ) (2021-07-02T05:44:56Z) - To do or not to do: finding causal relations in smart homes [2.064612766965483]
本稿では,環境と観測データの混合実験から因果モデルを学ぶための新しい手法を提案する。
我々の手法の核心は、選択された介入の使用であり、特に、介入が不可能な変数を考慮に入れた学習である。
本手法をスマートホームシミュレーション,すなわち因果関係を知ることが説明可能なシステムへの道を開くユースケースに応用する。
論文 参考訳(メタデータ) (2021-05-20T22:36:04Z) - Knowledge-Routed Visual Question Reasoning: Challenges for Deep
Representation Embedding [140.5911760063681]
VQAモデル評価のためのナレッジルーティング視覚質問推論という新しいデータセットを提案する。
視覚ゲノムシーングラフと外部知識ベースの両方に基づいて,制御プログラムを用いて質問応答対を生成する。
論文 参考訳(メタデータ) (2020-12-14T00:33:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。