論文の概要: ProfileXAI: User-Adaptive Explainable AI
- arxiv url: http://arxiv.org/abs/2510.22998v1
- Date: Mon, 27 Oct 2025 04:34:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.451103
- Title: ProfileXAI: User-Adaptive Explainable AI
- Title(参考訳): ProfileXAI: ユーザ適応型説明可能なAI
- Authors: Gilber A. Corrales, Carlos Andrés Ferro Sánchez, Reinel Tabares-Soto, Jesús Alfonso López Sotelo, Gonzalo A. Ruz, Johan Sebastian Piña Durán,
- Abstract要約: ProfileXAIは、検索とポストホックの説明器を結合して、さまざまなタイプのユーザのための説明を生成する。
システムは、マルチモーダルな知識ベースを索引付け、定量的基準によりインスタンスごとの説明者を選択し、チャット対応のプロンプトを備えた基礎的な物語を生成する。
心臓疾患と甲状腺癌のデータセットでは, 忠実度, 堅牢性, パーシモニー, トークン使用, 知覚品質を評価した。
- 参考スコア(独自算出の注目度): 1.8472148461613156
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: ProfileXAI is a model- and domain-agnostic framework that couples post-hoc explainers (SHAP, LIME, Anchor) with retrieval - augmented LLMs to produce explanations for different types of users. The system indexes a multimodal knowledge base, selects an explainer per instance via quantitative criteria, and generates grounded narratives with chat-enabled prompting. On Heart Disease and Thyroid Cancer datasets, we evaluate fidelity, robustness, parsimony, token use, and perceived quality. No explainer dominates: LIME achieves the best fidelity--robustness trade-off (Infidelity $\le 0.30$, $L<0.7$ on Heart Disease); Anchor yields the sparsest, low-token rules; SHAP attains the highest satisfaction ($\bar{x}=4.1$). Profile conditioning stabilizes tokens ($\sigma \le 13\%$) and maintains positive ratings across profiles ($\bar{x}\ge 3.7$, with domain experts at $3.77$), enabling efficient and trustworthy explanations.
- Abstract(参考訳): ProfileXAIはモデルとドメインに依存しないフレームワークで、ポストホックな説明器(SHAP、LIME、Anchor)と検索機能(LLM)を結合して、さまざまなタイプのユーザのための説明を生成する。
システムは、マルチモーダルな知識ベースを索引付け、定量的基準によりインスタンスごとの説明者を選択し、チャット対応のプロンプトを備えた基礎的な物語を生成する。
心臓疾患と甲状腺癌のデータセットでは, 忠実度, 堅牢性, パーシモニー, トークン使用, 知覚品質を評価した。
LIMEは最良のフィデリティ-ロバスト性トレードオフ(Infidelity $\le 0.30$, $L<0.7$ on Heart Disease)を達成する。
プロファイル条件付けはトークン(\sigma \le 13\%$)を安定化させ、プロファイル全体に対する肯定的な評価($\bar{x}\ge 3.7$、ドメインの専門家は$3.77$)を維持し、効率的で信頼できる説明を可能にする。
関連論文リスト
- Every Question Has Its Own Value: Reinforcement Learning with Explicit Human Values [53.72318444646282]
RLEV(Reinforcement Learning with Explicit Human Values)を提案する。
RLEVは、Large Language Model (LLM) 最適化を直接、定量化された人間の値信号と整合させる。
RLEVは、複数のRLアルゴリズムとモデルスケールで、精度のみのベースラインを一貫して上回ることを示す。
論文 参考訳(メタデータ) (2025-10-23T04:15:22Z) - Evaluating Reasoning Faithfulness in Medical Vision-Language Models using Multimodal Perturbations [19.488236277427358]
視覚言語モデル(VLM)は、しばしばチェーン・オブ・シント(CoT)の説明を生み出す。
胸部X線視覚質問応答(VQA)の臨床的基盤として,制御されたテキストと画像修正を用いてCoT忠実度を探索するフレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-13T09:28:22Z) - Reliability, Embeddedness, and Agency: A Utility-Driven Mathematical Framework for Agent-Centric AI Adoption [0.0]
我々は,マルチステップタスクを実行するエージェント中心のAIシステムの採用を継続するための3つの公理を定式化する。
我々は、崩壊するノベルティ用語と成長するユーティリティ用語の和として、採用をモデル化する。
論文 参考訳(メタデータ) (2025-08-18T12:53:38Z) - Robust Reinforcement Learning from Corrupted Human Feedback [86.17030012828003]
人間からのフィードバックからの強化学習(RLHF)は、AIシステムと人間の嗜好データを調整するための原則化されたフレームワークを提供する。
我々はRLHFのロバストなアプローチ-$R3M$を提案し、これは、潜在的に破損した選好ラベルをスパースアウトリーとしてモデル化する。
大規模言語モデル(LLM)を用いたロボット制御と自然言語生成の実験により、R3M$は、好みデータに対する様々な摂動に対する報酬の堅牢性を向上することを示した。
論文 参考訳(メタデータ) (2024-06-21T18:06:30Z) - Self-Evaluation Guided Beam Search for Reasoning [61.523627290397556]
我々は,Large Language Model (LLM) の推論プロセスのガイドと校正を行うための段階的自己評価機構を導入する。
本稿では,ビームサーチによる自己評価ガイダンスを統合した復号アルゴリズムを提案する。
我々のアプローチは、GSM8K、AQuA、StrategyQAにおいて、対応するCodexバックボンドベースラインをわずかに精度6.34%、9.56%、および5.46%で上回る。
論文 参考訳(メタデータ) (2023-05-01T02:37:59Z) - Exploring and Evaluating Attributes, Values, and Structures for Entity
Alignment [100.19568734815732]
エンティティアライメント(EA)は、さまざまなKGから等価なエンティティをリンクすることで、リッチコンテンツの統合知識グラフ(KG)を構築することを目的としている。
属性・トリプルは重要なアライメント信号も提供できますが、まだ十分に調査されていません。
本稿では,属性値エンコーダを用いてKGをサブグラフに分割し,属性の様々なタイプを効率的にモデル化することを提案する。
論文 参考訳(メタデータ) (2020-10-07T08:03:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。