論文の概要: Emergent Explainability: Adding a causal chain to neural network
inference
- arxiv url: http://arxiv.org/abs/2401.15840v1
- Date: Mon, 29 Jan 2024 02:28:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-30 16:13:01.286172
- Title: Emergent Explainability: Adding a causal chain to neural network
inference
- Title(参考訳): 創発的説明可能性:ニューラルネットワーク推論に因果連鎖を加える
- Authors: Adam Perrett
- Abstract要約: 本稿では,創発的コミュニケーション(EmCom)による説明可能な人工知能(xAI)の強化のための理論的枠組みを提案する。
我々は、EmComのAIシステムへの新たな統合を探求し、入力と出力の間の従来の連想関係から、より微妙で因果的解釈へのパラダイムシフトを提供する。
本稿は、このアプローチの理論的基盤、潜在的に広い応用、そして、責任と透明なAIシステムに対するニーズの増大と整合性について論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: This position paper presents a theoretical framework for enhancing
explainable artificial intelligence (xAI) through emergent communication
(EmCom), focusing on creating a causal understanding of AI model outputs. We
explore the novel integration of EmCom into AI systems, offering a paradigm
shift from conventional associative relationships between inputs and outputs to
a more nuanced, causal interpretation. The framework aims to revolutionize how
AI processes are understood, making them more transparent and interpretable.
While the initial application of this model is demonstrated on synthetic data,
the implications of this research extend beyond these simple applications. This
general approach has the potential to redefine interactions with AI across
multiple domains, fostering trust and informed decision-making in healthcare
and in various sectors where AI's decision-making processes are critical. The
paper discusses the theoretical underpinnings of this approach, its potential
broad applications, and its alignment with the growing need for responsible and
transparent AI systems in an increasingly digital world.
- Abstract(参考訳): 本稿では,AIモデル出力の因果的理解に焦点をあて,創発的コミュニケーション(EmCom)を通じて説明可能な人工知能(xAI)を強化する理論的枠組みを提案する。
EmComのAIシステムへの新たな統合を探求し、入力と出力の間の従来の連想関係から、より微妙な因果解釈へのパラダイムシフトを提供する。
このフレームワークは、AIプロセスの理解方法に革命をもたらすことを目的としており、より透明性と解釈性を高めている。
このモデルの最初の応用は合成データで実証されているが、この研究の意義はこれらの単純な応用を超えて広がっている。
この一般的なアプローチは、複数のドメインにわたるAIとのインタラクションを再定義する可能性があり、AIの意思決定プロセスが重要となるさまざまな分野において、信頼と情報的意思決定を促進する。
本稿は、このアプローチの理論的基盤、潜在的に広い応用、そしてますますデジタル化する世界における責任と透明なAIシステムの必要性の増大と整合性について論じる。
関連論文リスト
- Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - A Vision for Operationalising Diversity and Inclusion in AI [5.4897262701261225]
本研究は,AIエコシステムにおける多様性と包摂性(D&I)の倫理的命令の運用を想定することを目的とする。
AI開発における重要な課題は、D&Iの原則を効果的に運用することである。
本稿では,ジェネレーティブAI(GenAI)を用いたペルソナシミュレーションを活用したツール開発のためのフレームワークの構想を提案する。
論文 参考訳(メタデータ) (2023-12-11T02:44:39Z) - Multimodality of AI for Education: Towards Artificial General
Intelligence [14.121655991753483]
マルチモーダル人工知能(AI)アプローチは、教育的文脈における人工知能(AGI)の実現に向けた道を歩んでいる。
この研究は、認知フレームワーク、高度な知識表現、適応学習機構、多様なマルチモーダルデータソースの統合など、AGIの重要な側面を深く掘り下げている。
本稿は、AGI開発における今後の方向性と課題に関する洞察を提供する、教育におけるマルチモーダルAIの役割の意味についても論じる。
論文 参考訳(メタデータ) (2023-12-10T23:32:55Z) - Designing explainable artificial intelligence with active inference: A
framework for transparent introspection and decision-making [0.0]
我々は、アクティブ推論がどのようにして説明可能なAIシステムの設計に活用できるかについて議論する。
能動推論を用いた説明可能なAIシステムのためのアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-06-06T21:38:09Z) - Evaluating explainability for machine learning predictions using
model-agnostic metrics [0.0]
本稿では,その特徴からAIモデル予測が容易に説明できる程度を定量化する新しい指標を提案する。
我々のメトリクスは、説明可能性の異なる側面をスカラーに要約し、モデル予測のより包括的な理解を提供する。
論文 参考訳(メタデータ) (2023-02-23T15:28:36Z) - DIME: Fine-grained Interpretations of Multimodal Models via Disentangled
Local Explanations [119.1953397679783]
我々は,マルチモーダルモデルの解釈における最先端化に注力する。
提案手法であるDIMEは,マルチモーダルモデルの高精度かつきめ細かな解析を可能にする。
論文 参考訳(メタデータ) (2022-03-03T20:52:47Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。