論文の概要: Explainability in Context: A Multilevel Framework Aligning AI Explanations with Stakeholder with LLMs
- arxiv url: http://arxiv.org/abs/2506.05887v1
- Date: Fri, 06 Jun 2025 08:54:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.391646
- Title: Explainability in Context: A Multilevel Framework Aligning AI Explanations with Stakeholder with LLMs
- Title(参考訳): コンテキストにおける説明可能性: LLMによる利害関係者によるAI説明を指向した多層フレームワーク
- Authors: Marilyn Bello, Rafael Bello, Maria-Matilde García, Ann Nowé, Iván Sevillano-García, Francisco Herrera,
- Abstract要約: 本稿では、AIに対する信頼が、説明書の設計と提供にどのように影響するかを論じる。
このフレームワークは、アルゴリズムとドメインベース、人間中心、社会的説明責任の3つのレイヤで構成されている。
- 参考スコア(独自算出の注目度): 11.11196150521188
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The growing application of artificial intelligence in sensitive domains has intensified the demand for systems that are not only accurate but also explainable and trustworthy. Although explainable AI (XAI) methods have proliferated, many do not consider the diverse audiences that interact with AI systems: from developers and domain experts to end-users and society. This paper addresses how trust in AI is influenced by the design and delivery of explanations and proposes a multilevel framework that aligns explanations with the epistemic, contextual, and ethical expectations of different stakeholders. The framework consists of three layers: algorithmic and domain-based, human-centered, and social explainability. We highlight the emerging role of Large Language Models (LLMs) in enhancing the social layer by generating accessible, natural language explanations. Through illustrative case studies, we demonstrate how this approach facilitates technical fidelity, user engagement, and societal accountability, reframing XAI as a dynamic, trust-building process.
- Abstract(参考訳): センシティブなドメインにおける人工知能の応用は、正確であるだけでなく、説明可能で信頼性の高いシステムへの需要を増大させてきた。
説明可能なAI(XAI)メソッドが普及しているが、開発者やドメインエキスパートからエンドユーザ、社会に至るまで、AIシステムと対話する多様なオーディエンスを考慮していない人が多い。
本稿では、AIに対する信頼が、説明の設計と提供にどのように影響するかを論じ、さまざまな利害関係者の認識、文脈、倫理的期待とを整合させる多段階フレームワークを提案する。
このフレームワークは、アルゴリズムとドメインベース、人間中心、社会的説明責任の3つのレイヤで構成されている。
本稿では,Large Language Models (LLMs) の社会層拡大における役割を明らかにする。
実証的なケーススタディを通じて、このアプローチが技術的忠実さ、ユーザエンゲージメント、社会的説明責任をいかに促進するかを実証し、XAIを動的で信頼性の高いプロセスとして再定義する。
関連論文リスト
- Making Sense of the Unsensible: Reflection, Survey, and Challenges for XAI in Large Language Models Toward Human-Centered AI [11.454716478837014]
説明可能なAI(XAI)は、大きな言語モデル(LLM)と多様な利害関係者の不透明な推論の間の重要なインターフェースとして機能する。
本稿では, LLM における XAI の総合的考察と調査について, 説明可能性の本質は何か? 技術的・倫理的側面は何か?
我々は、説明責任は、信頼を育み、競争を可能とし、AIシステムを制度的な説明責任と人間中心の意思決定と整合させる、市民のインフラに進化しなければならないと論じている。
論文 参考訳(メタデータ) (2025-05-18T17:30:10Z) - A Multi-Layered Research Framework for Human-Centered AI: Defining the Path to Explainability and Trust [2.4578723416255754]
人間中心型AI(HCAI)は人間の価値観との整合性を強調し、説明可能なAI(XAI)はAI決定をより理解しやすくすることで透明性を高める。
本稿では,HCAI と XAI を橋渡し,構造的説明可能性パラダイムを確立する新しい3層フレームワークを提案する。
我々の発見は、透明性、適応性、倫理的に整合したAIシステムを育成するHCXAI(Human-Centered Explainable AI)を前進させた。
論文 参考訳(メタデータ) (2025-04-14T01:29:30Z) - A Survey of Frontiers in LLM Reasoning: Inference Scaling, Learning to Reason, and Agentic Systems [93.8285345915925]
推論(Reasoning)は、論理的推論、問題解決、意思決定を可能にする基本的な認知プロセスである。
大規模言語モデル(LLM)の急速な進歩により、推論は高度なAIシステムを区別する重要な能力として浮上した。
我々は,(1)推論が達成される段階を定義するレジーム,(2)推論プロセスに関与するコンポーネントを決定するアーキテクチャの2つの側面に沿って既存の手法を分類する。
論文 参考訳(メタデータ) (2025-04-12T01:27:49Z) - Explainable and Interpretable Multimodal Large Language Models: A Comprehensive Survey [46.617998833238126]
大規模言語モデル(LLM)とコンピュータビジョン(CV)システムは、自然言語理解と視覚処理の進歩を促進する。
これらの技術の収束がマルチモーダルAIの台頭を触媒し、テキスト、ビジョン、オーディオ、ビデオモダリティにまたがるよりリッチでクロスモーダルな理解を可能にした。
マルチモーダル大規模言語モデル(MLLM)は、画像テキスト生成、視覚的質問応答、相互モーダル検索といったタスクにおいて印象的な機能を示す強力なフレームワークとして登場した。
これらの進歩にもかかわらず、MLLMの複雑さと規模は解釈可能性と説明可能性において大きな課題をもたらし、確立に不可欠である。
論文 参考訳(メタデータ) (2024-12-03T02:54:31Z) - Converging Paradigms: The Synergy of Symbolic and Connectionist AI in LLM-Empowered Autonomous Agents [55.63497537202751]
コネクショニストと象徴的人工知能(AI)の収束を探求する記事
従来、コネクショナリストAIはニューラルネットワークにフォーカスし、シンボリックAIはシンボリック表現とロジックを強調していた。
大型言語モデル(LLM)の最近の進歩は、人間の言語をシンボルとして扱う際のコネクショナリストアーキテクチャの可能性を強調している。
論文 参考訳(メタデータ) (2024-07-11T14:00:53Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - Emergent Explainability: Adding a causal chain to neural network
inference [0.0]
本稿では,創発的コミュニケーション(EmCom)による説明可能な人工知能(xAI)の強化のための理論的枠組みを提案する。
我々は、EmComのAIシステムへの新たな統合を探求し、入力と出力の間の従来の連想関係から、より微妙で因果的解釈へのパラダイムシフトを提供する。
本稿は、このアプローチの理論的基盤、潜在的に広い応用、そして、責任と透明なAIシステムに対するニーズの増大と整合性について論じる。
論文 参考訳(メタデータ) (2024-01-29T02:28:39Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。