論文の概要: A multi-component framework for the analysis and design of explainable
artificial intelligence
- arxiv url: http://arxiv.org/abs/2005.01908v1
- Date: Tue, 5 May 2020 01:48:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 13:24:00.730814
- Title: A multi-component framework for the analysis and design of explainable
artificial intelligence
- Title(参考訳): 説明可能な人工知能の分析と設計のための多成分フレームワーク
- Authors: S. Atakishiyev, H. Babiker, N. Farruque, R. Goebel1, M-Y. Kima, M.H.
Motallebi, J. Rabelo, T. Syed, O. R. Za\"iane
- Abstract要約: 説明可能な人工知能(XAI)の研究の急速な成長は、2つの実質的な発展に続く。
AIシステムの透明性と信頼性を確保するための規制原則の作成を含む、信頼できるAIシステムを作成するための懸念の出現。
ここでは、XAI要件の戦略的在庫を提供し、XAIのアイデアの歴史とそれらの関連性を実証し、これらのアイデアを単純なフレームワークに合成し、5段階のXAIをキャリブレーションする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid growth of research in explainable artificial intelligence (XAI)
follows on two substantial developments. First, the enormous application
success of modern machine learning methods, especially deep and reinforcement
learning, which have created high expectations for industrial, commercial and
social value. Second, the emergence of concern for creating trusted AI systems,
including the creation of regulatory principles to ensure transparency and
trust of AI systems.These two threads have created a kind of "perfect storm" of
research activity, all eager to create and deliver it any set of tools and
techniques to address the XAI demand. As some surveys of current XAI suggest,
there is yet to appear a principled framework that respects the literature of
explainability in the history of science, and which provides a basis for the
development of a framework for transparent XAI. Here we intend to provide a
strategic inventory of XAI requirements, demonstrate their connection to a
history of XAI ideas, and synthesize those ideas into a simple framework to
calibrate five successive levels of XAI.
- Abstract(参考訳): 説明可能な人工知能(XAI)の研究の急速な成長は、2つの実質的な発展に続く。
第一に、現代の機械学習手法、特に深層学習と強化学習の巨大な応用成功は、産業、商業、社会的価値に対する高い期待を生み出した。
第2に、AIシステムの透明性と信頼性を保証するための規制原則の作成を含む、信頼できるAIシステムを作成することに対する懸念の出現である。これらの2つのスレッドは、XAIの要求に対処するツールやテクニックを開発、提供しようとする、研究活動の“完璧な嵐”のようなものを生み出した。
現在のXAIの調査が示すように、科学史における説明可能性の文献を尊重する原則的な枠組みは、まだ現れておらず、透明なXAIの枠組み開発の基礎となっている。
ここでは、XAI要件の戦略的在庫を提供し、XAIのアイデアの歴史とそれらの関連性を実証し、これらのアイデアを単純なフレームワークに合成し、5段階のXAIをキャリブレーションする。
関連論文リスト
- Usable XAI: 10 Strategies Towards Exploiting Explainability in the LLM Era [77.174117675196]
XAIはLarge Language Models (LLM)に拡張されている
本稿では,XAIがLLMやAIシステムにどのようなメリットをもたらすかを分析する。
10の戦略を導入し、それぞれに重要なテクニックを導入し、関連する課題について議論します。
論文 参考訳(メタデータ) (2024-03-13T20:25:27Z) - Explainable AI is Responsible AI: How Explainability Creates Trustworthy
and Socially Responsible Artificial Intelligence [9.844540637074836]
これは責任あるAIのトピックであり、信頼できるAIシステムを開発する必要性を強調している。
XAIは、責任あるAI(RAI)のためのビルディングブロックとして広く考えられている。
以上の結果から,XAIはRAIのすべての柱にとって不可欠な基盤である,という結論に至った。
論文 参考訳(メタデータ) (2023-12-04T00:54:04Z) - A Time Series Approach to Explainability for Neural Nets with
Applications to Risk-Management and Fraud Detection [0.0]
技術に対する信頼は、予測の背後にある根拠を理解することによって実現される。
横断的なデータの場合、古典的なXAIアプローチはモデルの内部動作に関する貴重な洞察をもたらす可能性がある。
本稿では、データの自然時間順序を保存・活用する深層学習のための新しいXAI手法を提案する。
論文 参考訳(メタデータ) (2022-12-06T12:04:01Z) - Neuro-symbolic Explainable Artificial Intelligence Twin for Zero-touch
IoE in Wireless Network [61.90504487270785]
説明可能な人工知能(XAI)双対システムは、ゼロタッチネットワークとサービス管理(ZSM)の基本的な実現要因となる。
ZSMのための信頼性の高いXAIツインシステムは、すべてのインターネット(IoE)の物理的振る舞いを識別する極端な分析能力と、そのような振る舞いの推論を特徴付ける厳密な方法の2つの合成を必要とする。
無線IoEのための信頼性の高いZSMを実現するために、新しいニューロシンボリックな説明可能な人工知能ツインフレームワークが提案されている。
論文 参考訳(メタデータ) (2022-10-13T01:08:06Z) - Explainable AI (XAI): A Systematic Meta-Survey of Current Challenges and
Future Opportunities [0.0]
説明可能なAI(XAI)は、AIをより透明性を高め、クリティカルドメインにおけるAIの採用を促進するために提案されている。
本研究は,XAIにおける課題と今後の研究方向性の体系的なメタサーベイである。
論文 参考訳(メタデータ) (2021-11-11T19:06:13Z) - Human-Centered Explainable AI (XAI): From Algorithms to User Experiences [29.10123472973571]
説明可能なAI(XAI)は近年,膨大なアルゴリズムコレクションを生み出している。
分野は学際的視点と人間中心のアプローチを受け入れ始めている。
論文 参考訳(メタデータ) (2021-10-20T21:33:46Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Explainable Artificial Intelligence (XAI): An Engineering Perspective [0.0]
XAIは、いわゆるブラックボックスAIアルゴリズムをホワイトボックスアルゴリズムに変換するテクニックと方法のセットです。
XAIのステークホルダを議論し、エンジニアリングの観点からXAIの数学的輪郭を説明します。
この研究は、XAIの分野における研究の新しい道を特定するための探索的研究です。
論文 参考訳(メタデータ) (2021-01-10T19:49:12Z) - Distributed and Democratized Learning: Philosophy and Research
Challenges [80.39805582015133]
民主化学習(Dem-AI)という新しいデザイン哲学を提案する。
ヒトの社会的グループに触発され、提案されたDem-AIシステムの学習エージェントの専門グループは階層構造で自己組織化され、より効率的に学習タスクを遂行する。
本稿では,様々な学際分野に触発された未来のDem-AIシステムを実現するためのガイドラインとして,参照設計を提案する。
論文 参考訳(メタデータ) (2020-03-18T08:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。