論文の概要: Emergent Explainability: Adding a causal chain to neural network
inference
- arxiv url: http://arxiv.org/abs/2401.15840v1
- Date: Mon, 29 Jan 2024 02:28:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-30 16:13:01.286172
- Title: Emergent Explainability: Adding a causal chain to neural network
inference
- Title(参考訳): 創発的説明可能性:ニューラルネットワーク推論に因果連鎖を加える
- Authors: Adam Perrett
- Abstract要約: 本稿では,創発的コミュニケーション(EmCom)による説明可能な人工知能(xAI)の強化のための理論的枠組みを提案する。
我々は、EmComのAIシステムへの新たな統合を探求し、入力と出力の間の従来の連想関係から、より微妙で因果的解釈へのパラダイムシフトを提供する。
本稿は、このアプローチの理論的基盤、潜在的に広い応用、そして、責任と透明なAIシステムに対するニーズの増大と整合性について論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: This position paper presents a theoretical framework for enhancing
explainable artificial intelligence (xAI) through emergent communication
(EmCom), focusing on creating a causal understanding of AI model outputs. We
explore the novel integration of EmCom into AI systems, offering a paradigm
shift from conventional associative relationships between inputs and outputs to
a more nuanced, causal interpretation. The framework aims to revolutionize how
AI processes are understood, making them more transparent and interpretable.
While the initial application of this model is demonstrated on synthetic data,
the implications of this research extend beyond these simple applications. This
general approach has the potential to redefine interactions with AI across
multiple domains, fostering trust and informed decision-making in healthcare
and in various sectors where AI's decision-making processes are critical. The
paper discusses the theoretical underpinnings of this approach, its potential
broad applications, and its alignment with the growing need for responsible and
transparent AI systems in an increasingly digital world.
- Abstract(参考訳): 本稿では,AIモデル出力の因果的理解に焦点をあて,創発的コミュニケーション(EmCom)を通じて説明可能な人工知能(xAI)を強化する理論的枠組みを提案する。
EmComのAIシステムへの新たな統合を探求し、入力と出力の間の従来の連想関係から、より微妙な因果解釈へのパラダイムシフトを提供する。
このフレームワークは、AIプロセスの理解方法に革命をもたらすことを目的としており、より透明性と解釈性を高めている。
このモデルの最初の応用は合成データで実証されているが、この研究の意義はこれらの単純な応用を超えて広がっている。
この一般的なアプローチは、複数のドメインにわたるAIとのインタラクションを再定義する可能性があり、AIの意思決定プロセスが重要となるさまざまな分野において、信頼と情報的意思決定を促進する。
本稿は、このアプローチの理論的基盤、潜在的に広い応用、そしてますますデジタル化する世界における責任と透明なAIシステムの必要性の増大と整合性について論じる。
関連論文リスト
- A Mechanistic Explanatory Strategy for XAI [0.0]
本稿では,ディープラーニングシステムの機能的構造を説明するためのメカニズム的戦略を概説する。
メカニスティックアプローチによると、不透明なAIシステムの説明には、意思決定を促進するメカニズムの特定が含まれる。
この研究は、モデル組織を研究するための体系的なアプローチが、より単純な(あるいはより控えめな)説明可能性技術が欠落する可能性のある要素を明らかにすることを示唆している。
論文 参考訳(メタデータ) (2024-11-02T18:30:32Z) - Advancing Interactive Explainable AI via Belief Change Theory [5.842480645870251]
この種の形式化は、対話的な説明を開発するためのフレームワークと方法論を提供する、と我々は主張する。
まず,人間と機械の間で共有される説明情報を表現するために,論理に基づく新しい形式を定義した。
次に、対話型XAIの現実シナリオについて検討し、新しい知識と既存の知識の優先順位が異なり、フォーマリズムがインスタンス化される可能性がある。
論文 参考訳(メタデータ) (2024-08-13T13:11:56Z) - Converging Paradigms: The Synergy of Symbolic and Connectionist AI in LLM-Empowered Autonomous Agents [55.63497537202751]
コネクショニストと象徴的人工知能(AI)の収束を探求する記事
従来、コネクショナリストAIはニューラルネットワークにフォーカスし、シンボリックAIはシンボリック表現とロジックを強調していた。
大型言語モデル(LLM)の最近の進歩は、人間の言語をシンボルとして扱う際のコネクショナリストアーキテクチャの可能性を強調している。
論文 参考訳(メタデータ) (2024-07-11T14:00:53Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Multimodality of AI for Education: Towards Artificial General
Intelligence [14.121655991753483]
マルチモーダル人工知能(AI)アプローチは、教育的文脈における人工知能(AGI)の実現に向けた道を歩んでいる。
この研究は、認知フレームワーク、高度な知識表現、適応学習機構、多様なマルチモーダルデータソースの統合など、AGIの重要な側面を深く掘り下げている。
本稿は、AGI開発における今後の方向性と課題に関する洞察を提供する、教育におけるマルチモーダルAIの役割の意味についても論じる。
論文 参考訳(メタデータ) (2023-12-10T23:32:55Z) - Designing explainable artificial intelligence with active inference: A
framework for transparent introspection and decision-making [0.0]
我々は、アクティブ推論がどのようにして説明可能なAIシステムの設計に活用できるかについて議論する。
能動推論を用いた説明可能なAIシステムのためのアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-06-06T21:38:09Z) - DIME: Fine-grained Interpretations of Multimodal Models via Disentangled
Local Explanations [119.1953397679783]
我々は,マルチモーダルモデルの解釈における最先端化に注力する。
提案手法であるDIMEは,マルチモーダルモデルの高精度かつきめ細かな解析を可能にする。
論文 参考訳(メタデータ) (2022-03-03T20:52:47Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。