論文の概要: Explainable Artificial Intelligence (XAI) 2.0: A Manifesto of Open
Challenges and Interdisciplinary Research Directions
- arxiv url: http://arxiv.org/abs/2310.19775v1
- Date: Mon, 30 Oct 2023 17:44:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 18:55:04.332499
- Title: Explainable Artificial Intelligence (XAI) 2.0: A Manifesto of Open
Challenges and Interdisciplinary Research Directions
- Title(参考訳): 説明可能な人工知能(XAI) 2.0:オープンチャレンジのマニフェストと学際研究の方向性
- Authors: Luca Longo, Mario Brcic, Federico Cabitza, Jaesik Choi, Roberto
Confalonieri, Javier Del Ser, Riccardo Guidotti, Yoichi Hayashi, Francisco
Herrera, Andreas Holzinger, Richard Jiang, Hassan Khosravi, Freddy Lecue,
Gianclaudio Malgieri, Andr\'es P\'aez, Wojciech Samek, Johannes Schneider,
Timo Speith, Simone Stumpf
- Abstract要約: 説明可能なAI(XAI)は、様々な領域にまたがる実践的、倫理的利益の研究分野として登場した。
本稿では,XAIの進歩と実世界のシナリオへの応用について述べる。
9つのカテゴリに分類される27のオープンな問題のマニフェストを提示する。
- 参考スコア(独自算出の注目度): 37.640819269544934
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: As systems based on opaque Artificial Intelligence (AI) continue to flourish
in diverse real-world applications, understanding these black box models has
become paramount. In response, Explainable AI (XAI) has emerged as a field of
research with practical and ethical benefits across various domains. This paper
not only highlights the advancements in XAI and its application in real-world
scenarios but also addresses the ongoing challenges within XAI, emphasizing the
need for broader perspectives and collaborative efforts. We bring together
experts from diverse fields to identify open problems, striving to synchronize
research agendas and accelerate XAI in practical applications. By fostering
collaborative discussion and interdisciplinary cooperation, we aim to propel
XAI forward, contributing to its continued success. Our goal is to put forward
a comprehensive proposal for advancing XAI. To achieve this goal, we present a
manifesto of 27 open problems categorized into nine categories. These
challenges encapsulate the complexities and nuances of XAI and offer a road map
for future research. For each problem, we provide promising research directions
in the hope of harnessing the collective intelligence of interested
stakeholders.
- Abstract(参考訳): 不透明な人工知能(AI)に基づくシステムは、さまざまな現実世界のアプリケーションで繁栄を続けているため、これらのブラックボックスモデルを理解することが最重要になっている。
これに対し、説明可能なAI(XAI)は、様々な領域にまたがる実践的、倫理的利益の研究分野として登場した。
本稿は,XAIの進歩と実世界のシナリオへの応用に加えて,より広い視点と協調的な取り組みの必要性を強調し,XAI内の課題に対処するものである。
我々は,様々な分野の専門家を集めてオープンな問題を特定し,研究課題の同期化に努め,xaiの実用化を加速する。
協力的な議論と学際的な協力の促進により、私たちは、XAIを前進させ、その継続的な成功に寄与することを目指しています。
我々の目標は、XAIを進めるための包括的な提案を行うことです。
この目標を達成するために,我々は,27のオープン問題のマニフェストを9つのカテゴリに分類した。
これらの課題は、XAIの複雑さとニュアンスをカプセル化し、将来の研究のためのロードマップを提供する。
各問題に対して,利害関係者の集合的知性を活用するために,有望な研究指針を提供する。
関連論文リスト
- Explain to Question not to Justify [21.026130628668067]
我々はXAI領域内で絡み合った様々なスレッドを、人間/価値指向の説明の相補的な2つの文化に分けた。
RED XAIの領域は現在未調査であり、AIシステムの安全性を確保するために必要な重要な研究の機会と可能性を秘めている、と我々は主張する。
論文 参考訳(メタデータ) (2024-02-21T16:30:24Z) - Do We Need Explainable AI in Companies? Investigation of Challenges,
Expectations, and Chances from Employees' Perspective [0.8057006406834467]
AIの使用は、企業とその従業員に対して、AIシステムの透明性と理解性を含む、新たな要件を提供する。
説明可能なAI(XAI)の分野は、これらの問題に対処することを目指している。
本報告では,(X)AIに対する従業員のニーズと態度について考察する。
論文 参考訳(メタデータ) (2022-10-07T13:11:28Z) - XAI for Cybersecurity: State of the Art, Challenges, Open Issues and
Future Directions [16.633632244131775]
AIモデルは、開発者が特定の決定の背後にある理由の説明や追跡ができないブラックボックスとして現れることが多い。
説明可能なAI(XAI)は、情報を抽出し、結果を視覚化するのに役立つ、急速に成長する研究分野である。
本報告では,サイバーセキュリティと攻撃形態について概説する。
次に、従来のAI技術の使用とその関連する課題について議論し、様々なアプリケーションでXAIを使用するための扉を開く。
論文 参考訳(メタデータ) (2022-06-03T02:15:30Z) - Characterising Research Areas in the field of AI [68.8204255655161]
トピックの共起ネットワーク上でクラスタリング分析を行うことで,主要な概念テーマを特定した。
その結果は、ディープラーニングや機械学習、物のインターネットといった研究テーマに対する学術的関心の高まりを浮き彫りにしている。
論文 参考訳(メタデータ) (2022-05-26T16:30:30Z) - Explainable AI (XAI): A Systematic Meta-Survey of Current Challenges and
Future Opportunities [0.0]
説明可能なAI(XAI)は、AIをより透明性を高め、クリティカルドメインにおけるAIの採用を促進するために提案されている。
本研究は,XAIにおける課題と今後の研究方向性の体系的なメタサーベイである。
論文 参考訳(メタデータ) (2021-11-11T19:06:13Z) - Stakeholder Participation in AI: Beyond "Add Diverse Stakeholders and
Stir" [76.44130385507894]
本稿では、既存の文献の参加と現在の実践の実証分析を通じて、AI設計における「参加的転換」を掘り下げることを目的としている。
本稿では,本論文の文献合成と実証研究に基づいて,AI設計への参加的アプローチを解析するための概念的枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-01T17:57:04Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - What Do We Want From Explainable Artificial Intelligence (XAI)? -- A
Stakeholder Perspective on XAI and a Conceptual Model Guiding
Interdisciplinary XAI Research [0.8707090176854576]
説明可能性アプローチの主な目的は、人工システムに関する特定の関心、目標、期待、ニーズ、および要求を満たすことです。
ステークホルダーのデシデラタを満たすという目標を達成するための説明可能性アプローチがどうあるべきかは、しばしば不明である。
論文 参考訳(メタデータ) (2021-02-15T19:54:33Z) - Artificial Intelligence for IT Operations (AIOPS) Workshop White Paper [50.25428141435537]
AIOps(Artificial Intelligence for IT Operations)は、マシンラーニング、ビッグデータ、ストリーミング分析、IT運用管理の交差点で発生する、新たな学際分野である。
AIOPSワークショップの主な目的は、アカデミアと産業界の両方の研究者が集まり、この分野での経験、成果、作業について発表することです。
論文 参考訳(メタデータ) (2021-01-15T10:43:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。