論文の概要: CausalKG: Causal Knowledge Graph Explainability using interventional and
counterfactual reasoning
- arxiv url: http://arxiv.org/abs/2201.03647v1
- Date: Thu, 6 Jan 2022 20:27:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-16 16:30:47.501133
- Title: CausalKG: Causal Knowledge Graph Explainability using interventional and
counterfactual reasoning
- Title(参考訳): CausalKG:介入と反事実推論を用いた因果知識グラフの説明可能性
- Authors: Utkarshani Jaimini, Amit Sheth
- Abstract要約: 人間は日常的な意思決定、計画、人生の出来事の理解において因果関係と仮説的振り返りを用いる。
それは世界の因果モデルを開発し、少ないデータポイントで学習し、推論を行い、反現実的なシナリオを考えます。
因果知識グラフ(Causal Knowledge Graph, CausalKG)フレームワークは、因果性やKGの最近の進歩を説明可能性に活用する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humans use causality and hypothetical retrospection in their daily
decision-making, planning, and understanding of life events. The human mind,
while retrospecting a given situation, think about questions such as "What was
the cause of the given situation?", "What would be the effect of my action?",
or "Which action led to this effect?". It develops a causal model of the world,
which learns with fewer data points, makes inferences, and contemplates
counterfactual scenarios. The unseen, unknown, scenarios are known as
counterfactuals. AI algorithms use a representation based on knowledge graphs
(KG) to represent the concepts of time, space, and facts. A KG is a graphical
data model which captures the semantic relationships between entities such as
events, objects, or concepts. The existing KGs represent causal relationships
extracted from texts based on linguistic patterns of noun phrases for causes
and effects as in ConceptNet and WordNet. The current causality representation
in KGs makes it challenging to support counterfactual reasoning. A richer
representation of causality in AI systems using a KG-based approach is needed
for better explainability, and support for intervention and counterfactuals
reasoning, leading to improved understanding of AI systems by humans. The
causality representation requires a higher representation framework to define
the context, the causal information, and the causal effects. The proposed
Causal Knowledge Graph (CausalKG) framework, leverages recent progress of
causality and KG towards explainability. CausalKG intends to address the lack
of a domain adaptable causal model and represent the complex causal relations
using the hyper-relational graph representation in the KG. We show that the
CausalKG's interventional and counterfactual reasoning can be used by the AI
system for the domain explainability.
- Abstract(参考訳): 人間は日常的な意思決定、計画、人生の出来事の理解において因果関係と仮説的振り返りを用いる。
人間の心は、与えられた状況を振り返りながら、「与えられた状況の原因は何か?」「私の行動の効果は何か?」「この効果はどのような行動に導かれたのか?」といった疑問を思い浮かべる。
それは世界の因果モデルを開発し、少ないデータポイントで学習し、推論を行い、反現実的なシナリオを考えます。
未知の、未知のシナリオは偽物として知られている。
AIアルゴリズムは、時間、空間、事実の概念を表現するために知識グラフ(KG)に基づく表現を使用する。
KGは、イベントやオブジェクト、概念といったエンティティ間のセマンティックな関係をキャプチャするグラフィカルデータモデルである。
既存のKGは、ConceptNetやWordNetのように、語句の言語パターンに基づいてテキストから抽出された因果関係を表す。
kgsにおける現在の因果関係表現は、偽りの推論をサポートするのに困難である。
KGベースのアプローチによるAIシステムの因果関係のより豊かな表現は、説明可能性の向上と介入と反事実推論のサポートのために必要であり、それによって人間によるAIシステムの理解が向上する。
因果関係表現は、文脈、因果情報、因果効果を定義するためのより高い表現枠組みを必要とする。
因果知識グラフ(Causal Knowledge Graph, CausalKG)フレームワークは、因果性やKGの最近の進歩を説明可能性に活用する。
CausalKGは、ドメイン適応型因果モデルの欠如に対処し、KGのハイパーリレーショナルグラフ表現を用いて複雑な因果関係を表現する。
我々は、CausalKGの介入的および反ファクト的推論が、AIシステムによってドメイン説明可能性に利用できることを示した。
関連論文リスト
- CELLO: Causal Evaluation of Large Vision-Language Models [9.928321287432365]
因果推論は人間の知性の基本であり、現実世界の環境における効果的な意思決定に不可欠である。
我々は,人間と物体の相互作用を含む因果関係の微細で統一的な定義を導入する。
我々は,4段階の因果関係に関する14,094の因果関係質問からなる新しいデータセットであるCellOを構築した。
論文 参考訳(メタデータ) (2024-06-27T12:34:52Z) - Cause and Effect: Can Large Language Models Truly Understand Causality? [1.2334534968968969]
本研究では,CARE CA(Content Aware Reasoning Enhancement with Counterfactual Analysis)フレームワークという新しいアーキテクチャを提案する。
提案するフレームワークには,ConceptNetと反ファクト文を備えた明示的な因果検出モジュールと,大規模言語モデルによる暗黙的な因果検出が組み込まれている。
ConceptNetの知識は、因果的発見、因果的識別、反事実的推論といった複数の因果的推論タスクのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T08:02:14Z) - Emergence and Causality in Complex Systems: A Survey on Causal Emergence
and Related Quantitative Studies [12.78006421209864]
因果発生理論は出現を定量化するために因果関係の尺度を用いる。
因果の出現を定量化し、データを識別する。
因果表現学習,因果モデル抽象化,世界モデルに基づく強化学習によって,因果表現の出現を識別するアーキテクチャが共有されることを強調した。
論文 参考訳(メタデータ) (2023-12-28T04:20:46Z) - Diagrammatic Modelling of Causality and Causal Relations [0.0]
本稿では、因果関係の図式モデル(図形)について述べる。
我々は,この文脈において,物作り機械の概念言語(TM)をツールとして使用することを試みた。
その結果, TMによる因果関係の描写はより完全であり, 因果グラフの基礎となることが示唆された。
論文 参考訳(メタデータ) (2023-10-17T07:17:51Z) - CLEAR: Generative Counterfactual Explanations on Graphs [60.30009215290265]
グラフ上での対実的説明生成の問題について検討する。
グラフに関する反実的な説明を調査する研究はいくつかあるが、この問題の多くの課題はまだ十分に適応されていない。
本稿では,グラフレベルの予測モデルに対して,グラフ上の反実的説明を生成するための新しいフレームワークCLEARを提案する。
論文 参考訳(メタデータ) (2022-10-16T04:35:32Z) - Visual Abductive Reasoning [85.17040703205608]
帰納的推論は、部分的な観察の可能な限りの可能な説明を求める。
本稿では,日常的な視覚的状況下でのマシンインテリジェンスの帰納的推論能力を調べるために,新たなタスクとデータセットであるVisual Abductive Reasoning(VAR)を提案する。
論文 参考訳(メタデータ) (2022-03-26T10:17:03Z) - Causal Explanations and XAI [8.909115457491522]
説明可能な人工知能(XAI)の重要な目標は、説明を提供することでミスマッチを補うことである。
十分な説明と事実的説明の因果的概念を正式に定義し、さらに一歩踏み出します。
また、この研究のAIにおける公正性に対する重要性についても触れ、パス固有の反現実的公正性の概念を改善するために、実際の因果関係をどのように利用できるかを示しています。
論文 参考訳(メタデータ) (2022-01-31T12:32:10Z) - Everything Has a Cause: Leveraging Causal Inference in Legal Text
Analysis [62.44432226563088]
因果推論は変数間の因果関係を捉えるプロセスである。
本論文では,事実記述から因果グラフを構築するための新たなグラフベース因果推論フレームワークを提案する。
GCIに含まれる因果知識を強力なニューラルネットワークに効果的に注入することで、パフォーマンスと解釈性が向上します。
論文 参考訳(メタデータ) (2021-04-19T16:13:10Z) - Fuzzy Stochastic Timed Petri Nets for Causal properties representation [68.8204255655161]
因果関係はしばしば有向グラフで表され、原因を示すノードと因果関係を表すリンクがある。
因果シナリオをグラフィカルに表現するために使われる一般的な方法は、ニューロン、真理表、因果ベイズネットワーク、認知地図、ペトリネットである。
従来のモデルは、前述のプロパティのいくつかを別々に表現できるが、それら全てをはっきりと説明しようとはしないことを示す。
論文 参考訳(メタデータ) (2020-11-24T13:22:34Z) - COSMO: Conditional SEQ2SEQ-based Mixture Model for Zero-Shot Commonsense
Question Answering [50.65816570279115]
社会的文脈の暗黙的な原因と影響の特定は、機械が常識的推論を実行できるようにする駆動能力である。
この領域における現在のアプローチには、目に見えない状況に直面して常識推論を行う能力がない。
本稿では,動的かつ多様なコンテンツ生成機能を備えた条件付きSEQ2SEQベースの混合モデル(COSMO)を提案する。
論文 参考訳(メタデータ) (2020-11-02T07:08:19Z) - Thinking About Causation: A Causal Language with Epistemic Operators [58.720142291102135]
我々はエージェントの状態を表すことで因果モデルの概念を拡張した。
対象言語の側面には、知識を表現する演算子や、新しい情報を観察する行為が追加されます。
我々は、論理の健全かつ完全な公理化を提供し、このフレームワークと因果的チーム意味論との関係について論じる。
論文 参考訳(メタデータ) (2020-10-30T12:16:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。