論文の概要: A multi-component framework for the analysis and design of explainable
artificial intelligence
- arxiv url: http://arxiv.org/abs/2005.01908v1
- Date: Tue, 5 May 2020 01:48:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 13:24:00.730814
- Title: A multi-component framework for the analysis and design of explainable
artificial intelligence
- Title(参考訳): 説明可能な人工知能の分析と設計のための多成分フレームワーク
- Authors: S. Atakishiyev, H. Babiker, N. Farruque, R. Goebel1, M-Y. Kima, M.H.
Motallebi, J. Rabelo, T. Syed, O. R. Za\"iane
- Abstract要約: 説明可能な人工知能(XAI)の研究の急速な成長は、2つの実質的な発展に続く。
AIシステムの透明性と信頼性を確保するための規制原則の作成を含む、信頼できるAIシステムを作成するための懸念の出現。
ここでは、XAI要件の戦略的在庫を提供し、XAIのアイデアの歴史とそれらの関連性を実証し、これらのアイデアを単純なフレームワークに合成し、5段階のXAIをキャリブレーションする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid growth of research in explainable artificial intelligence (XAI)
follows on two substantial developments. First, the enormous application
success of modern machine learning methods, especially deep and reinforcement
learning, which have created high expectations for industrial, commercial and
social value. Second, the emergence of concern for creating trusted AI systems,
including the creation of regulatory principles to ensure transparency and
trust of AI systems.These two threads have created a kind of "perfect storm" of
research activity, all eager to create and deliver it any set of tools and
techniques to address the XAI demand. As some surveys of current XAI suggest,
there is yet to appear a principled framework that respects the literature of
explainability in the history of science, and which provides a basis for the
development of a framework for transparent XAI. Here we intend to provide a
strategic inventory of XAI requirements, demonstrate their connection to a
history of XAI ideas, and synthesize those ideas into a simple framework to
calibrate five successive levels of XAI.
- Abstract(参考訳): 説明可能な人工知能(XAI)の研究の急速な成長は、2つの実質的な発展に続く。
第一に、現代の機械学習手法、特に深層学習と強化学習の巨大な応用成功は、産業、商業、社会的価値に対する高い期待を生み出した。
第2に、AIシステムの透明性と信頼性を保証するための規制原則の作成を含む、信頼できるAIシステムを作成することに対する懸念の出現である。これらの2つのスレッドは、XAIの要求に対処するツールやテクニックを開発、提供しようとする、研究活動の“完璧な嵐”のようなものを生み出した。
現在のXAIの調査が示すように、科学史における説明可能性の文献を尊重する原則的な枠組みは、まだ現れておらず、透明なXAIの枠組み開発の基礎となっている。
ここでは、XAI要件の戦略的在庫を提供し、XAIのアイデアの歴史とそれらの関連性を実証し、これらのアイデアを単純なフレームワークに合成し、5段階のXAIをキャリブレーションする。
関連論文リスト
- Computational Safety for Generative AI: A Signal Processing Perspective [65.268245109828]
計算安全性は、GenAIにおける安全性の定量的評価、定式化、研究を可能にする数学的枠組みである。
ジェイルブレイクによる悪意のあるプロンプトを検出するために, 感度解析と損失景観解析がいかに有効かを示す。
我々は、AIの安全性における信号処理の鍵となる研究課題、機会、そして重要な役割について論じる。
論文 参考訳(メタデータ) (2025-02-18T02:26:50Z) - PXGen: A Post-hoc Explainable Method for Generative Models [0.5266869303483376]
生成型AI(XAI)は、生成型AI技術の責任ある開発と展開を保証する上で重要な役割を果たす。
近年の研究では、有能なXAI手法は、主に2つの重要な領域に焦点を当てた一連の基準に従うべきであることが強調されている。
生成モデルのためのポストホックな説明可能な手法であるPXGenを提案する。
論文 参考訳(メタデータ) (2025-01-21T02:10:50Z) - Generative Artificial Intelligence Meets Synthetic Aperture Radar: A Survey [49.29751866761522]
本稿では,GenAIとSARの交差点について検討する。
まず、SAR分野における一般的なデータ生成ベースのアプリケーションについて説明する。
次に、最新のGenAIモデルの概要を体系的にレビューする。
最後に、SARドメインの対応するアプリケーションも含まれる。
論文 参考訳(メタデータ) (2024-11-05T03:06:00Z) - Explainable Artificial Intelligence: A Survey of Needs, Techniques, Applications, and Future Direction [5.417632175667161]
説明可能な人工知能(XAI)は、これらのモデルがどのように意思決定や予測を行うかを説明することによって、課題に対処する。
既存の研究では、XAIの基本概念、その一般的原理、およびXAI技術の範囲について検討されている。
本稿では、共通用語と定義、XAIの必要性、XAIの受益者の必要性、XAI手法の分類、および異なる応用分野におけるXAI手法の適用に関する総合的な文献レビューを提供する。
論文 参考訳(メタデータ) (2024-08-30T21:42:17Z) - Applications of Explainable artificial intelligence in Earth system science [12.454478986296152]
このレビューは、説明可能なAI(XAI)の基礎的な理解を提供することを目的としている。
XAIはモデルをより透明にする強力なツールセットを提供する。
我々は、地球系科学(ESS)において、XAIが直面する4つの重要な課題を識別する。
AIモデルは未知を探索し、XAIは説明を提供することでギャップを埋める。
論文 参考訳(メタデータ) (2024-06-12T15:05:29Z) - Evolutionary Computation and Explainable AI: A Roadmap to Understandable Intelligent Systems [37.02462866600066]
進化的計算(EC)は、説明可能なAI(XAI)に寄与する大きな可能性を提供する
本稿では、XAIの紹介を行い、機械学習モデルを説明するための現在の技術についてレビューする。
次に、ECがXAIでどのように活用できるかを検討し、ECテクニックを取り入れた既存のXAIアプローチを調べます。
論文 参考訳(メタデータ) (2024-06-12T02:06:24Z) - Usable XAI: 10 Strategies Towards Exploiting Explainability in the LLM Era [77.174117675196]
XAIはLarge Language Models (LLM)に拡張されている
本稿では,XAIがLLMやAIシステムにどのようなメリットをもたらすかを分析する。
10の戦略を導入し、それぞれに重要なテクニックを導入し、関連する課題について議論します。
論文 参考訳(メタデータ) (2024-03-13T20:25:27Z) - Explainable AI (XAI): A Systematic Meta-Survey of Current Challenges and
Future Opportunities [0.0]
説明可能なAI(XAI)は、AIをより透明性を高め、クリティカルドメインにおけるAIの採用を促進するために提案されている。
本研究は,XAIにおける課題と今後の研究方向性の体系的なメタサーベイである。
論文 参考訳(メタデータ) (2021-11-11T19:06:13Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Distributed and Democratized Learning: Philosophy and Research
Challenges [80.39805582015133]
民主化学習(Dem-AI)という新しいデザイン哲学を提案する。
ヒトの社会的グループに触発され、提案されたDem-AIシステムの学習エージェントの専門グループは階層構造で自己組織化され、より効率的に学習タスクを遂行する。
本稿では,様々な学際分野に触発された未来のDem-AIシステムを実現するためのガイドラインとして,参照設計を提案する。
論文 参考訳(メタデータ) (2020-03-18T08:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。