論文の概要: Explainable AI (XAI): A Systematic Meta-Survey of Current Challenges and
Future Opportunities
- arxiv url: http://arxiv.org/abs/2111.06420v1
- Date: Thu, 11 Nov 2021 19:06:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-15 13:30:00.135705
- Title: Explainable AI (XAI): A Systematic Meta-Survey of Current Challenges and
Future Opportunities
- Title(参考訳): 説明可能なAI(XAI):現在の課題と今後の可能性の体系的なメタサーベイ
- Authors: Waddah Saeed, Christian Omlin
- Abstract要約: 説明可能なAI(XAI)は、AIをより透明性を高め、クリティカルドメインにおけるAIの採用を促進するために提案されている。
本研究は,XAIにおける課題と今後の研究方向性の体系的なメタサーベイである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The past decade has seen significant progress in artificial intelligence
(AI), which has resulted in algorithms being adopted for resolving a variety of
problems. However, this success has been met by increasing model complexity and
employing black-box AI models that lack transparency. In response to this need,
Explainable AI (XAI) has been proposed to make AI more transparent and thus
advance the adoption of AI in critical domains. Although there are several
reviews of XAI topics in the literature that identified challenges and
potential research directions in XAI, these challenges and research directions
are scattered. This study, hence, presents a systematic meta-survey for
challenges and future research directions in XAI organized in two themes: (1)
general challenges and research directions in XAI and (2) challenges and
research directions in XAI based on machine learning life cycle's phases:
design, development, and deployment. We believe that our meta-survey
contributes to XAI literature by providing a guide for future exploration in
the XAI area.
- Abstract(参考訳): 過去10年間、人工知能(ai)は大幅に進歩し、様々な問題を解決するためにアルゴリズムが採用された。
しかしながら、この成功は、モデルの複雑さの増加と、透明性に欠けるブラックボックスAIモデルの採用によって達成されている。
このニーズに応えて、説明可能なAI(XAI)が提案され、AIをより透明性を高め、クリティカルドメインにおけるAIの採用を促進する。
XAIの課題と今後の研究方向性を特定する文献にはいくつかの論点があるが、これらの課題と研究の方向性は散在している。
そこで本研究では,(1)xaiの一般課題と研究方向,(2)機械学習ライフサイクルのフェーズに基づくxaiの課題と研究方向,すなわち設計,開発,展開という2つのテーマに整理されたxaiの課題と今後の研究方向に関する体系的メタサーベイを提案する。
我々は,我々のメタサーベイが,XAI地域における今後の探索のガイドを提供することで,XAI文学に寄与すると考えている。
関連論文リスト
- Usable XAI: 10 Strategies Towards Exploiting Explainability in the LLM Era [77.174117675196]
XAIはLarge Language Models (LLM)に拡張されている
本稿では,XAIがLLMやAIシステムにどのようなメリットをもたらすかを分析する。
10の戦略を導入し、それぞれに重要なテクニックを導入し、関連する課題について議論します。
論文 参考訳(メタデータ) (2024-03-13T20:25:27Z) - Explainable Artificial Intelligence (XAI) 2.0: A Manifesto of Open
Challenges and Interdisciplinary Research Directions [37.640819269544934]
説明可能なAI(XAI)は、様々な領域にまたがる実践的、倫理的利益の研究分野として登場した。
本稿では,XAIの進歩と実世界のシナリオへの応用について述べる。
9つのカテゴリに分類される27のオープンな問題のマニフェストを提示する。
論文 参考訳(メタデータ) (2023-10-30T17:44:55Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - Explainable Artificial Intelligence (XAI) for Internet of Things: A
Survey [1.7205106391379026]
人工知能(AI)モデルのブラックボックスの性質は、ユーザーがそのようなモデルによって生成された出力を理解し、時には信頼することを許さない。
結果だけでなく、結果への決定パスも重要なAIアプリケーションでは、このようなブラックボックスAIモデルは不十分である。
説明可能な人工知能(XAI)は、この問題に対処し、ユーザによって解釈される一連のAIモデルを定義する。
論文 参考訳(メタデータ) (2022-06-07T08:22:30Z) - XAI for Cybersecurity: State of the Art, Challenges, Open Issues and
Future Directions [16.633632244131775]
AIモデルは、開発者が特定の決定の背後にある理由の説明や追跡ができないブラックボックスとして現れることが多い。
説明可能なAI(XAI)は、情報を抽出し、結果を視覚化するのに役立つ、急速に成長する研究分野である。
本報告では,サイバーセキュリティと攻撃形態について概説する。
次に、従来のAI技術の使用とその関連する課題について議論し、様々なアプリケーションでXAIを使用するための扉を開く。
論文 参考訳(メタデータ) (2022-06-03T02:15:30Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Empowering Things with Intelligence: A Survey of the Progress,
Challenges, and Opportunities in Artificial Intelligence of Things [98.10037444792444]
AIがIoTをより速く、より賢く、よりグリーンで、より安全にするための力を与える方法を示します。
まず、認識、学習、推論、行動の4つの視点から、IoTのためのAI研究の進歩を示す。
最後に、私たちの世界を深く再形成する可能性が高いAIoTの有望な応用をいくつかまとめる。
論文 参考訳(メタデータ) (2020-11-17T13:14:28Z) - Opportunities and Challenges in Explainable Artificial Intelligence
(XAI): A Survey [2.7086321720578623]
深層ニューラルネットワークのブラックボックスの性質は、ミッションクリティカルなアプリケーションでの利用に挑戦する。
XAIは、AI決定に関する高品質な解釈可能、直感的、人間に理解可能な説明を生成するためのツール、テクニック、アルゴリズムのセットを推進している。
論文 参考訳(メタデータ) (2020-06-16T02:58:10Z) - A multi-component framework for the analysis and design of explainable
artificial intelligence [0.0]
説明可能な人工知能(XAI)の研究の急速な成長は、2つの実質的な発展に続く。
AIシステムの透明性と信頼性を確保するための規制原則の作成を含む、信頼できるAIシステムを作成するための懸念の出現。
ここでは、XAI要件の戦略的在庫を提供し、XAIのアイデアの歴史とそれらの関連性を実証し、これらのアイデアを単純なフレームワークに合成し、5段階のXAIをキャリブレーションする。
論文 参考訳(メタデータ) (2020-05-05T01:48:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。