論文の概要: Using Causal Threads to Explain Changes in a Dynamic System
- arxiv url: http://arxiv.org/abs/2311.11334v1
- Date: Sun, 19 Nov 2023 14:32:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-21 20:58:05.912557
- Title: Using Causal Threads to Explain Changes in a Dynamic System
- Title(参考訳): 動的システムにおける因果スレッドによる変化の説明
- Authors: Robert B. Allen
- Abstract要約: システムのリッチなセマンティックモデルの開発について検討する。
具体的には、これらのシステムにおける状態変化に関する構造的因果説明について考察する。
積雪地理論により提案される地質学的変化の因果糸モデルを構築した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We explore developing rich semantic models of systems. Specifically, we
consider structured causal explanations about state changes in those systems.
Essentially, we are developing process-based dynamic knowledge graphs. As an
example, we construct a model of the causal threads for geological changes
proposed by the Snowball Earth theory. Further, we describe an early prototype
of a graphical interface to present the explanations. Unlike statistical
approaches to summarization and explanation such as Large Language Models
(LLMs), our approach of direct representation can be inspected and verified
directly.
- Abstract(参考訳): 我々はシステムのリッチな意味モデルの開発を探求する。
具体的には,これらのシステムにおける状態変化に関する構造的因果説明について考察する。
基本的に、プロセスベースの動的知識グラフを開発しています。
例えば,雪球地球理論によって提案された地質変化の因果スレッドのモデルを構築した。
さらに,説明を行うためのグラフィカルインタフェースの初期プロトタイプについて述べる。
大規模言語モデル(llm)のような要約や説明に対する統計的アプローチとは異なり、直接表現のアプローチは直接検査し検証することができる。
関連論文リスト
- Towards Causal Physical Error Discovery in Video Analytics Systems [5.889781890680243]
ディープラーニングモデルに基づくビデオ分析システムは、しばしば不透明で不安定である。
現在のモデル説明システムは、ピクセル寄与の観点からの行動のリテラル説明に非常に適している。
本稿では、回帰不連続設計(Regress discontinuity design)と呼ばれる単純な形態の因果推論を用いて、複数の重要な性能指標の変化と実世界の現象を関連付けることができるという考えを紹介する。
論文 参考訳(メタデータ) (2024-05-27T22:40:33Z) - An Axiomatic Approach to Model-Agnostic Concept Explanations [67.84000759813435]
本稿では、線形性、再帰性、類似性という3つの自然な公理を満たす概念的説明へのアプローチを提案する。
次に、従来の概念的説明手法とのつながりを確立し、それらの意味の異なる意味についての洞察を提供する。
論文 参考訳(メタデータ) (2024-01-12T20:53:35Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Motif-guided Time Series Counterfactual Explanations [1.1510009152620664]
本稿では,ポストホックな反事実的説明を直感的に生成する新しいモデルを提案する。
UCRリポジトリから5つの実世界の時系列データセットを用いてモデルを検証した。
論文 参考訳(メタデータ) (2022-11-08T17:56:50Z) - CLEAR: Generative Counterfactual Explanations on Graphs [60.30009215290265]
グラフ上での対実的説明生成の問題について検討する。
グラフに関する反実的な説明を調査する研究はいくつかあるが、この問題の多くの課題はまだ十分に適応されていない。
本稿では,グラフレベルの予測モデルに対して,グラフ上の反実的説明を生成するための新しいフレームワークCLEARを提案する。
論文 参考訳(メタデータ) (2022-10-16T04:35:32Z) - Explaining Causal Models with Argumentation: the Case of Bi-variate
Reinforcement [15.947501347927687]
因果モデルから議論フレームワーク(AF)を生成するための概念化を導入する。
この概念化は、AFの意味論の望ましい性質を説明型として再解釈することに基づいている。
我々はこれらの論証的説明の理論的評価を行い、それらが望ましい説明的および論証的特性の範囲を満たすかどうかを検討する。
論文 参考訳(メタデータ) (2022-05-23T19:39:51Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Information exchange, meaning and redundancy generation in anticipatory
systems: self-organization of expectations -- the case of Covid-19 [1.4467794332678539]
本稿では,情報力学とシステム進化の関連性に注目した。
本稿では,コビッドウイルスの感染伝播に情報と意味のダイナミクスが組み込まれていることを示す。
論文 参考訳(メタデータ) (2021-05-25T05:01:38Z) - Causal Discovery in Physical Systems from Videos [123.79211190669821]
因果発見は人間の認知の中心にある。
本研究では,ビデオの因果発見の課題を,地層構造を監督せずにエンドツーエンドで検討する。
論文 参考訳(メタデータ) (2020-07-01T17:29:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。