論文の概要: Explainable AI Reloaded: Challenging the XAI Status Quo in the Era of Large Language Models
- arxiv url: http://arxiv.org/abs/2408.05345v1
- Date: Fri, 9 Aug 2024 21:28:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-13 19:32:21.833642
- Title: Explainable AI Reloaded: Challenging the XAI Status Quo in the Era of Large Language Models
- Title(参考訳): 説明可能なAIのリロード - 大規模言語モデルの時代におけるXAIの現状
- Authors: Upol Ehsan, Mark O. Riedl,
- Abstract要約: 我々は、人間中心の視点が説明可能な(XAI)への道のりであると論じる。
ブラックボックスの外側の説明可能性、ブラックボックスの端付近の説明可能性、インフラの縫い目を利用した説明可能性の3つの側面に沿って、XAI研究による議論を運用する。
- 参考スコア(独自算出の注目度): 23.49101518770889
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When the initial vision of Explainable (XAI) was articulated, the most popular framing was to open the (proverbial) "black-box" of AI so that we could understand the inner workings. With the advent of Large Language Models (LLMs), the very ability to open the black-box is increasingly limited especially when it comes to non-AI expert end-users. In this paper, we challenge the assumption of "opening" the black-box in the LLM era and argue for a shift in our XAI expectations. Highlighting the epistemic blind spots of an algorithm-centered XAI view, we argue that a human-centered perspective can be a path forward. We operationalize the argument by synthesizing XAI research along three dimensions: explainability outside the black-box, explainability around the edges of the black box, and explainability that leverages infrastructural seams. We conclude with takeaways that reflexively inform XAI as a domain.
- Abstract(参考訳): Explainable(XAI)の最初のビジョンが具体化されたとき、最も一般的なフレーミングは、内部の動作を理解するために、AIの(プロバイバルな)"ブラックボックス"を開くことだった。
大規模言語モデル(LLM)の出現により、特にAIの専門家でないエンドユーザにとっては、ブラックボックスをオープンする能力はますます制限されている。
本稿では,LLM時代のブラックボックスの「オープン化」を前提として,XAI期待の変化を論じる。
アルゴリズム中心のXAIビューの認識的盲点を高く評価することで、人間中心の視点が前進の道であると論じる。
我々は,XAI研究をブラックボックスの外側の説明可能性,ブラックボックスの端辺の説明可能性,インフラの縫い目を利用した説明可能性の3つの次元に沿って合成することによって,議論を運用する。
我々は、XAIをドメインとして反射的に通知するテイクアウトで締めくくります。
関連論文リスト
- Usable XAI: 10 Strategies Towards Exploiting Explainability in the LLM Era [77.174117675196]
XAIはLarge Language Models (LLM)に拡張されている
本稿では,XAIがLLMやAIシステムにどのようなメリットをもたらすかを分析する。
10の戦略を導入し、それぞれに重要なテクニックを導入し、関連する課題について議論します。
論文 参考訳(メタデータ) (2024-03-13T20:25:27Z) - XAI for All: Can Large Language Models Simplify Explainable AI? [0.0699049312989311]
x-[plAIn]"は、カスタムのLarge Language Modelを通じて、XAIをより広く利用できるようにする新しいアプローチである。
我々の目標は、様々なXAI手法の明確で簡潔な要約を生成できるモデルを設計することであった。
使用事例調査の結果から,本モデルは理解し易く,観衆特有の説明を提供するのに有効であることが示された。
論文 参考訳(メタデータ) (2024-01-23T21:47:12Z) - Is Task-Agnostic Explainable AI a Myth? [0.0]
我々の研究は、現代の説明可能なAI(XAI)の課題を統一するための枠組みとして機能する。
我々は、XAI手法が機械学習モデルに補助的かつ潜在的に有用な出力を提供する一方で、研究者と意思決定者は、概念的および技術的な制限に留意すべきであることを示した。
本稿では,画像,テキスト,グラフデータにまたがる3つのXAI研究経路について検討する。
論文 参考訳(メタデータ) (2023-07-13T07:48:04Z) - Understanding Natural Language Understanding Systems. A Critical
Analysis [91.81211519327161]
自然言語理解システム(Natural Language Understanding (NLU) system)としても知られる usguillemotright(英語版) のようなギユモトレフトークを持つ機械の開発は、人工知能の聖杯(英語版) (AI) である。
しかし、Gillemottalking machineguillemotrightを構築することができるという信頼は、次世代のNLUシステムによってもたらされたものよりも強かった。
私たちは新しい時代の夜明けに、ついに砂利が我々に近づいたのか?
論文 参考訳(メタデータ) (2023-03-01T08:32:55Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Social Construction of XAI: Do We Need One Definition to Rule Them All? [18.14698948294366]
我々は、XAIの現段階で、XAIの特異な定義が実現不可能で、望ましくない理由を論じる。
多重解釈を早すぎると、標準化(クロージャ)を強制することはイノベーションを阻害し、早めの結論につながる。
定義的なコンセンサスを待つことなく,XAI の進歩のために多元主義を活用する方法を共有します。
論文 参考訳(メタデータ) (2022-11-11T22:32:26Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Explainable AI without Interpretable Model [0.0]
AIシステムが、結果の背後にある理由をエンドユーザに説明できることは、これまで以上に重要になっています。
ほとんどの説明可能なAI(XAI)メソッドは、説明を作成するのに使用できる解釈可能なモデルを抽出することに基づいている。
本論文では,文脈的重要性と実用性(CIU)の概念により,ブラックボックスの結果の人間的な説明を直接生成することが可能となる。
論文 参考訳(メタデータ) (2020-09-29T13:29:44Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。