論文の概要: Finding Uncommon Ground: A Human-Centered Model for Extrospective Explanations
- arxiv url: http://arxiv.org/abs/2507.21571v1
- Date: Tue, 29 Jul 2025 07:59:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-30 17:08:55.859516
- Title: Finding Uncommon Ground: A Human-Centered Model for Extrospective Explanations
- Title(参考訳): 普通でない地面を見つける:外見的説明のための人間中心モデル
- Authors: Laura Spillner, Nima Zargham, Mihai Pomarlan, Robert Porzel, Rainer Malaka,
- Abstract要約: AIエージェントは、説明が与えられるコンテキストだけでなく、個人とその好みに焦点を当てる必要があります。
本稿では,エージェントがユーザに対して提供した情報を,最も関連性の高い情報に基づいて調整する,パーソナライズされた説明手法を提案する。
- 参考スコア(独自算出の注目度): 17.427385114802753
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The need for explanations in AI has, by and large, been driven by the desire to increase the transparency of black-box machine learning models. However, such explanations, which focus on the internal mechanisms that lead to a specific output, are often unsuitable for non-experts. To facilitate a human-centered perspective on AI explanations, agents need to focus on individuals and their preferences as well as the context in which the explanations are given. This paper proposes a personalized approach to explanation, where the agent tailors the information provided to the user based on what is most likely pertinent to them. We propose a model of the agent's worldview that also serves as a personal and dynamic memory of its previous interactions with the same user, based on which the artificial agent can estimate what part of its knowledge is most likely new information to the user.
- Abstract(参考訳): AIにおける説明の必要性は、ブラックボックス機械学習モデルの透明性を高めたいという願望によって、ますます大きくなっている。
しかしながら、特定の出力につながる内部メカニズムに焦点を当てたそのような説明は、非専門家には適さないことが多い。
AIの説明に対する人間中心の視点を促進するために、エージェントは、説明が与えられるコンテキストだけでなく、個人とその好みに焦点を当てる必要がある。
本稿では,エージェントがユーザに対して提供した情報を,最も関連性の高い情報に基づいて調整する,パーソナライズされた説明手法を提案する。
エージェントのワールドビューのモデルを提案し、そのエージェントは、その知識のどの部分がユーザにとって最も新しい情報であるかを推定することができる。
関連論文リスト
- PersonaBench: Evaluating AI Models on Understanding Personal Information through Accessing (Synthetic) Private User Data [76.21047984886273]
パーソナライゼーションは、AIアシスタント、特に個々のユーザーと連携するプライベートAIモデルのコンテキストにおいて重要である。
このようなデータのセンシティブな性質のため、AIモデルのユーザ理解能力を評価するためのデータセットは公開されていない。
多様なユーザプロファイルを作成する合成データ生成パイプラインと、人間の活動をシミュレートするプライベートドキュメントを導入する。
論文 参考訳(メタデータ) (2025-02-28T00:43:35Z) - Memento No More: Coaching AI Agents to Master Multiple Tasks via Hints Internalization [56.674356045200696]
本稿では,複雑なメモシステムや事前の高品質な実演データを必要としない,複数のタスクに対する知識とスキルを取り入れたAIエージェントの訓練手法を提案する。
このアプローチでは,エージェントが新たな経験を収集し,ヒントの形で人間から補正フィードバックを受け取り,このフィードバックを重みに組み込む,反復的なプロセスを採用している。
Llama-3をベースとしたエージェントに実装することで,数ラウンドのフィードバックの後,高度なモデルGPT-4oとDeepSeek-V3をタスクセットで性能向上させる手法の有効性を実証する。
論文 参考訳(メタデータ) (2025-02-03T17:45:46Z) - Relevant Irrelevance: Generating Alterfactual Explanations for Image Classifiers [11.200613814162185]
本稿では,ブラックボックス画像分類器の再現的説明の実現可能性を示す。
ニューラルネットワークに基づくブラックボックスモデルにこのアイデアを適用することが可能であることを初めて示します。
論文 参考訳(メタデータ) (2024-05-08T11:03:22Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Conceptualizing the Relationship between AI Explanations and User Agency [0.9051087836811617]
我々は,ケーススタディと思考実験を通して,ユーザ中心のレンズを通してエージェントと説明の関係を分析する。
提案手法は,利用者が将来的なインタラクションにおいて,より効果的な結果の変換を行えるようにすることで,エージェンシーのためのいくつかの第1ステップの1つとなることが判明した。
論文 参考訳(メタデータ) (2023-12-05T23:56:05Z) - Explaining Agent Behavior with Large Language Models [7.128139268426959]
本研究では,状態や行動の観察のみに基づいて,エージェントの行動に関する自然言語説明を生成する手法を提案する。
エージェントの振る舞いのコンパクトな表現がいかに学習され、妥当な説明を生み出すかを示す。
論文 参考訳(メタデータ) (2023-09-19T06:13:24Z) - Evaluation of Human-Understandability of Global Model Explanations using
Decision Tree [8.263545324859969]
我々は、物語的、患者固有の、そしてグローバルなモデル説明を生成する。
特定のタイプの説明を強く好みます。
これは信頼と行動の両方が可能な健康情報システムの設計を導くものである。
論文 参考訳(メタデータ) (2023-09-18T16:30:14Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Not all users are the same: Providing personalized explanations for
sequential decision making problems [25.24098967133101]
本研究では,エンドツーエンドの適応的説明生成システムを提案する。
最初は、エージェントが対話できるさまざまなタイプのユーザを学習することから始まる。
その後、ハエの型を特定し、それに応じて説明を調整する。
論文 参考訳(メタデータ) (2021-06-23T07:46:19Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。