論文の概要: Explainable Artificial Intelligence (XAI) 2.0: A Manifesto of Open
Challenges and Interdisciplinary Research Directions
- arxiv url: http://arxiv.org/abs/2310.19775v1
- Date: Mon, 30 Oct 2023 17:44:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 18:55:04.332499
- Title: Explainable Artificial Intelligence (XAI) 2.0: A Manifesto of Open
Challenges and Interdisciplinary Research Directions
- Title(参考訳): 説明可能な人工知能(XAI) 2.0:オープンチャレンジのマニフェストと学際研究の方向性
- Authors: Luca Longo, Mario Brcic, Federico Cabitza, Jaesik Choi, Roberto
Confalonieri, Javier Del Ser, Riccardo Guidotti, Yoichi Hayashi, Francisco
Herrera, Andreas Holzinger, Richard Jiang, Hassan Khosravi, Freddy Lecue,
Gianclaudio Malgieri, Andr\'es P\'aez, Wojciech Samek, Johannes Schneider,
Timo Speith, Simone Stumpf
- Abstract要約: 説明可能なAI(XAI)は、様々な領域にまたがる実践的、倫理的利益の研究分野として登場した。
本稿では,XAIの進歩と実世界のシナリオへの応用について述べる。
9つのカテゴリに分類される27のオープンな問題のマニフェストを提示する。
- 参考スコア(独自算出の注目度): 37.640819269544934
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: As systems based on opaque Artificial Intelligence (AI) continue to flourish
in diverse real-world applications, understanding these black box models has
become paramount. In response, Explainable AI (XAI) has emerged as a field of
research with practical and ethical benefits across various domains. This paper
not only highlights the advancements in XAI and its application in real-world
scenarios but also addresses the ongoing challenges within XAI, emphasizing the
need for broader perspectives and collaborative efforts. We bring together
experts from diverse fields to identify open problems, striving to synchronize
research agendas and accelerate XAI in practical applications. By fostering
collaborative discussion and interdisciplinary cooperation, we aim to propel
XAI forward, contributing to its continued success. Our goal is to put forward
a comprehensive proposal for advancing XAI. To achieve this goal, we present a
manifesto of 27 open problems categorized into nine categories. These
challenges encapsulate the complexities and nuances of XAI and offer a road map
for future research. For each problem, we provide promising research directions
in the hope of harnessing the collective intelligence of interested
stakeholders.
- Abstract(参考訳): 不透明な人工知能(AI)に基づくシステムは、さまざまな現実世界のアプリケーションで繁栄を続けているため、これらのブラックボックスモデルを理解することが最重要になっている。
これに対し、説明可能なAI(XAI)は、様々な領域にまたがる実践的、倫理的利益の研究分野として登場した。
本稿は,XAIの進歩と実世界のシナリオへの応用に加えて,より広い視点と協調的な取り組みの必要性を強調し,XAI内の課題に対処するものである。
我々は,様々な分野の専門家を集めてオープンな問題を特定し,研究課題の同期化に努め,xaiの実用化を加速する。
協力的な議論と学際的な協力の促進により、私たちは、XAIを前進させ、その継続的な成功に寄与することを目指しています。
我々の目標は、XAIを進めるための包括的な提案を行うことです。
この目標を達成するために,我々は,27のオープン問題のマニフェストを9つのカテゴリに分類した。
これらの課題は、XAIの複雑さとニュアンスをカプセル化し、将来の研究のためのロードマップを提供する。
各問題に対して,利害関係者の集合的知性を活用するために,有望な研究指針を提供する。
関連論文リスト
- Aligning Cyber Space with Physical World: A Comprehensive Survey on Embodied AI [129.08019405056262]
人工知能(Embodied AI)は、人工知能(AGI)の実現に不可欠である
MLMとWMは、その顕著な知覚、相互作用、推論能力のために、大きな注目を集めている。
本調査では,Embodied AIの最近の進歩を包括的に調査する。
論文 参考訳(メタデータ) (2024-07-09T14:14:47Z) - OlympicArena: Benchmarking Multi-discipline Cognitive Reasoning for Superintelligent AI [73.75520820608232]
我々は,11,163のバイリンガル問題を含む,テキストのみとインターリーブされたテキストイメージのモダリティを紹介する。
これらの課題には、7つのフィールドと62の国際オリンピック大会にわたる幅広い規律が含まれており、データ漏洩について厳格に調査されている。
我々の評価によると、GPT-4oのような先進モデルでさえ、複雑な推論とマルチモーダル統合における現在のAI制限を反映して、全体的な精度は39.97%しか達成していない。
論文 参考訳(メタデータ) (2024-06-18T16:20:53Z) - Applications of Explainable artificial intelligence in Earth system science [12.454478986296152]
このレビューは、説明可能なAI(XAI)の基礎的な理解を提供することを目的としている。
XAIはモデルをより透明にする強力なツールセットを提供する。
我々は、地球系科学(ESS)において、XAIが直面する4つの重要な課題を識別する。
AIモデルは未知を探索し、XAIは説明を提供することでギャップを埋める。
論文 参考訳(メタデータ) (2024-06-12T15:05:29Z) - Explainable Generative AI (GenXAI): A Survey, Conceptualization, and Research Agenda [1.8592384822257952]
我々は、XAIがGenAIの台頭とともに重要になった理由とその説明可能性研究の課題について詳述する。
私たちはまた、検証可能性、対話性、セキュリティ、コストといった側面をカバーし、説明が満たすべき新しいデシラタも披露します。
論文 参考訳(メタデータ) (2024-04-15T08:18:16Z) - Do We Need Explainable AI in Companies? Investigation of Challenges,
Expectations, and Chances from Employees' Perspective [0.8057006406834467]
AIの使用は、企業とその従業員に対して、AIシステムの透明性と理解性を含む、新たな要件を提供する。
説明可能なAI(XAI)の分野は、これらの問題に対処することを目指している。
本報告では,(X)AIに対する従業員のニーズと態度について考察する。
論文 参考訳(メタデータ) (2022-10-07T13:11:28Z) - XAI for Cybersecurity: State of the Art, Challenges, Open Issues and
Future Directions [16.633632244131775]
AIモデルは、開発者が特定の決定の背後にある理由の説明や追跡ができないブラックボックスとして現れることが多い。
説明可能なAI(XAI)は、情報を抽出し、結果を視覚化するのに役立つ、急速に成長する研究分野である。
本報告では,サイバーセキュリティと攻撃形態について概説する。
次に、従来のAI技術の使用とその関連する課題について議論し、様々なアプリケーションでXAIを使用するための扉を開く。
論文 参考訳(メタデータ) (2022-06-03T02:15:30Z) - Explainable AI (XAI): A Systematic Meta-Survey of Current Challenges and
Future Opportunities [0.0]
説明可能なAI(XAI)は、AIをより透明性を高め、クリティカルドメインにおけるAIの採用を促進するために提案されている。
本研究は,XAIにおける課題と今後の研究方向性の体系的なメタサーベイである。
論文 参考訳(メタデータ) (2021-11-11T19:06:13Z) - Stakeholder Participation in AI: Beyond "Add Diverse Stakeholders and
Stir" [76.44130385507894]
本稿では、既存の文献の参加と現在の実践の実証分析を通じて、AI設計における「参加的転換」を掘り下げることを目的としている。
本稿では,本論文の文献合成と実証研究に基づいて,AI設計への参加的アプローチを解析するための概念的枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-01T17:57:04Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。