論文の概要: Logic-Based Explainability: Past, Present & Future
- arxiv url: http://arxiv.org/abs/2406.11873v1
- Date: Tue, 4 Jun 2024 10:41:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-23 13:24:48.406676
- Title: Logic-Based Explainability: Past, Present & Future
- Title(参考訳): 論理に基づく説明可能性:過去、現在、そして未来
- Authors: Joao Marques-Silva,
- Abstract要約: 機械学習(ML)と人工知能(AI)の採用も重大な懸念点である。
最も先進的なAI/MLモデルの運用は、人間の意思決定者の把握を超えたものが多い。
本稿では,論理に基づくXAIとその起源,研究の現在の話題,今後の研究の話題について,技術的な調査を行う。
- 参考スコア(独自算出の注目度): 0.8547032097715571
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, the impact of machine learning (ML) and artificial intelligence (AI) in society has been absolutely remarkable. This impact is expected to continue in the foreseeable future. However,the adoption of AI/ML is also a cause of grave concern. The operation of the most advances AI/ML models is often beyond the grasp of human decision makers. As a result, decisions that impact humans may not be understood and may lack rigorous validation. Explainable AI (XAI) is concerned with providing human decision-makers with understandable explanations for the predictions made by ML models. As a result, XAI is a cornerstone of trustworthy AI. Despite its strategic importance, most work on XAI lacks rigor, and so its use in high-risk or safety-critical domains serves to foster distrust instead of contributing to build much-needed trust. Logic-based XAI has recently emerged as a rigorous alternative to those other non-rigorous methods of XAI. This paper provides a technical survey of logic-based XAI, its origins, the current topics of research, and emerging future topics of research. The paper also highlights the many myths that pervade non-rigorous approaches for XAI.
- Abstract(参考訳): 近年,機械学習(ML)と人工知能(AI)が社会に与える影響は極めて顕著である。
この影響は、当面続くものと期待されている。
しかし、AI/MLの採用も重大な懸念の1つだ。
最も先進的なAI/MLモデルの運用は、人間の意思決定者の把握を超えたものが多い。
その結果、人間に影響を与える決定は理解されず、厳密な検証を欠く可能性がある。
説明可能なAI(XAI)は、MLモデルによる予測に関する理解可能な説明を人間の意思決定者に提供することに関心がある。
その結果、XAIは信頼できるAIの基礎となっている。
戦略的重要性にもかかわらず、XAIに関するほとんどの研究は厳格さを欠いているため、リスクの高い領域や安全クリティカルな領域での使用は、非常に必要な信頼の構築に貢献するのではなく、不信を育むのに役立つ。
論理ベースのXAIは、最近、XAIの他の非厳密な方法に代わる厳密な代替手段として登場した。
本稿では,論理に基づくXAIとその起源,研究の現在の話題,今後の研究の話題について,技術的な調査を行う。
この論文は、XAIの非厳密なアプローチに及ぼした多くの神話も強調している。
関連論文リスト
- Dataset | Mindset = Explainable AI | Interpretable AI [36.001670039529586]
機械学習(ML)の出力を支える理由を説明するために、与えられたデータセットにさまざまなXAIツールを適用すると、"説明可能な"人工知能(XAI)と"解釈可能なAI(IAI)"が相反する。
我々は、XAIは、IAIのサブセットであると主張する。IAIの概念はデータセットの範囲を超えており、思考の領域を含んでいる。
我々は、これらの概念を明確にし、将来のAI応用と研究における多くの実践者や政策立案者に対して、XAI、IAI、EAI、TAIの基礎を築いたいと考えています。
論文 参考訳(メタデータ) (2024-08-22T14:12:53Z) - Investigating the Role of Explainability and AI Literacy in User Compliance [2.8623940003518156]
XAIの導入により,ユーザのコンプライアンスが向上する一方で,AIリテラシーの影響も受けていることがわかった。
また,AIリテラシーXAIとユーザのコンプライアンスの関係は,ユーザのメンタルモデルが介在していることも確認した。
論文 参考訳(メタデータ) (2024-06-18T14:28:12Z) - Usable XAI: 10 Strategies Towards Exploiting Explainability in the LLM Era [77.174117675196]
XAIはLarge Language Models (LLM)に拡張されている
本稿では,XAIがLLMやAIシステムにどのようなメリットをもたらすかを分析する。
10の戦略を導入し、それぞれに重要なテクニックを導入し、関連する課題について議論します。
論文 参考訳(メタデータ) (2024-03-13T20:25:27Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - On Two XAI Cultures: A Case Study of Non-technical Explanations in
Deployed AI System [3.4918511133757977]
XAIの多くは、実際にはデプロイされたAIシステムの主要なオーディエンスであり、主要な利害関係者である非AI専門家には理解できない。
我々は,非技術者を対象としたXAI手法の開発が重要であることを主張する。
そして、AIの専門家が非技術ステークホルダーにAI決定の非技術的な説明を提供した、実生活のケーススタディを提示します。
論文 参考訳(メタデータ) (2021-12-02T07:02:27Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Designer-User Communication for XAI: An epistemological approach to
discuss XAI design [4.169915659794568]
Signifying Message を概念的なツールとして、XAI シナリオを構造化および議論します。
私たちは、ヘルスケアAIシステムの議論にその使用を実験します。
論文 参考訳(メタデータ) (2021-05-17T13:18:57Z) - The human-AI relationship in decision-making: AI explanation to support
people on justifying their decisions [4.169915659794568]
人々は、AIがどのように機能するか、そしてそのシステムとの関係を構築するために、その成果をもっと意識する必要があります。
意思決定のシナリオでは、人々はAIがどのように機能するか、そしてそのシステムとの関係を構築する結果についてもっと意識する必要があります。
論文 参考訳(メタデータ) (2021-02-10T14:28:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。