論文の概要: Explainable artificial intelligence (XAI): from inherent explainability to large language models
- arxiv url: http://arxiv.org/abs/2501.09967v1
- Date: Fri, 17 Jan 2025 06:16:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-20 14:00:58.774588
- Title: Explainable artificial intelligence (XAI): from inherent explainability to large language models
- Title(参考訳): 説明可能な人工知能(XAI):固有の説明可能性から大規模言語モデルまで
- Authors: Fuseini Mumuni, Alhassan Mumuni,
- Abstract要約: 説明可能なAI(XAI)技術は、機械学習モデルの説明可能性や解釈可能性を促進する。
本稿では、本質的に解釈可能なモデルから現代的なアプローチまで、説明可能なAI手法の進歩について詳述する。
我々は、視覚言語モデル(VLM)フレームワークを利用して、他の機械学習モデルの説明可能性を自動化または改善する説明可能なAI技術についてレビューする。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Artificial Intelligence (AI) has continued to achieve tremendous success in recent times. However, the decision logic of these frameworks is often not transparent, making it difficult for stakeholders to understand, interpret or explain their behavior. This limitation hinders trust in machine learning systems and causes a general reluctance towards their adoption in practical applications, particularly in mission-critical domains like healthcare and autonomous driving. Explainable AI (XAI) techniques facilitate the explainability or interpretability of machine learning models, enabling users to discern the basis of the decision and possibly avert undesirable behavior. This comprehensive survey details the advancements of explainable AI methods, from inherently interpretable models to modern approaches for achieving interpretability of various black box models, including large language models (LLMs). Additionally, we review explainable AI techniques that leverage LLM and vision-language model (VLM) frameworks to automate or improve the explainability of other machine learning models. The use of LLM and VLM as interpretability methods particularly enables high-level, semantically meaningful explanations of model decisions and behavior. Throughout the paper, we highlight the scientific principles, strengths and weaknesses of state-of-the-art methods and outline different areas of improvement. Where appropriate, we also present qualitative and quantitative comparison results of various methods to show how they compare. Finally, we discuss the key challenges of XAI and directions for future research.
- Abstract(参考訳): 人工知能(AI)は近年も大きな成功を収め続けている。
しかしながら、これらのフレームワークの決定ロジックは、しばしば透過的ではなく、ステークホルダーが彼らの振る舞いを理解し、解釈し、説明することが困難になる。
この制限は、マシンラーニングシステムへの信頼を妨げ、特に医療や自動運転といったミッションクリティカルな領域において、実践的アプリケーションへの採用に対する一般的な反感を引き起こす。
説明可能なAI(XAI)技術は、機械学習モデルの説明可能性や解釈可能性を促進する。
この包括的調査では、本質的に解釈可能なモデルから、大規模言語モデル(LLM)を含むさまざまなブラックボックスモデルの解釈可能性を達成するための現代的なアプローチまで、説明可能なAI手法の進歩について詳述している。
さらに、LLMと視覚言語モデル(VLM)フレームワークを活用して、他の機械学習モデルの説明可能性を自動化または改善する説明可能なAI技術についてレビューする。
LLMとVLMを解釈可能性の手法として用いることで、特にモデル決定と振る舞いの高レベルで意味のある説明が可能になる。
論文全体を通して、最先端の手法の科学的原則、強み、弱点を強調し、さまざまな改善の分野を概説する。
また,各手法の質的,定量的な比較結果を示し,それらの比較方法を示す。
最後に,XAIの課題と今後の研究の方向性について論じる。
関連論文リスト
- Explainable Artificial Intelligence Techniques for Accurate Fault Detection and Diagnosis: A Review [0.0]
この文脈でeXplainable AI(XAI)ツールとテクニックをレビューする。
私たちは、AI決定を透明にする彼らの役割、特に人間が関与する重要なシナリオに重点を置いています。
モデル性能と説明可能性のバランスをとることを目的とした,現在の限界と今後の研究について論じる。
論文 参考訳(メタデータ) (2024-04-17T17:49:38Z) - Explain To Decide: A Human-Centric Review on the Role of Explainable
Artificial Intelligence in AI-assisted Decision Making [1.0878040851638]
機械学習モデルはエラーを起こしやすく、自律的に使用することはできない。
説明可能な人工知能(XAI)は、エンドユーザーによるモデルの理解を支援する。
本稿では,XAIの人間-AI意思決定への影響に関する最近の実証的研究について報告する。
論文 参考訳(メタデータ) (2023-12-11T22:35:21Z) - A Comprehensive Review on Financial Explainable AI [29.229196780505532]
金融の文脈における深層学習モデルの説明可能性向上を目的とした手法の比較調査を行う。
説明可能なAI手法のコレクションは,その特性に応じて分類する。
我々は、説明可能なAI手法を採用する際の懸念と課題を、適切かつ重要と考えられる今後の方向性とともにレビューする。
論文 参考訳(メタデータ) (2023-09-21T10:30:49Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - DIME: Fine-grained Interpretations of Multimodal Models via Disentangled
Local Explanations [119.1953397679783]
我々は,マルチモーダルモデルの解釈における最先端化に注力する。
提案手法であるDIMEは,マルチモーダルモデルの高精度かつきめ細かな解析を可能にする。
論文 参考訳(メタデータ) (2022-03-03T20:52:47Z) - Rational Shapley Values [0.0]
ポストホックな説明可能な人工知能(XAI)の一般的なツールは、文脈に敏感であるか、要約が難しい。
非互換なアプローチを合成し拡張する新しいXAI手法である、エミュレーション型シェープリー値を導入する。
私は、意思決定理論や因果モデリングのツールを活用して、XAIにおける多くの既知の課題を解決する実用的なアプローチを定式化し、実装します。
論文 参考訳(メタデータ) (2021-06-18T15:45:21Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。