論文の概要: Generating User-Centred Explanations via Illocutionary Question
Answering: From Philosophy to Interfaces
- arxiv url: http://arxiv.org/abs/2110.00762v1
- Date: Sat, 2 Oct 2021 09:06:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-05 15:23:24.506515
- Title: Generating User-Centred Explanations via Illocutionary Question
Answering: From Philosophy to Interfaces
- Title(参考訳): Illocutionary Question Answeringによるユーザ中心説明の生成:哲学からインターフェースへ
- Authors: Francesco Sovrano, Fabio Vitali
- Abstract要約: 我々は、AIアルゴリズムの洗練されたパイプラインに基づく対話型説明を生成するための新しいアプローチを示す。
我々の貢献は、コンピュータフレンドリーな方法でイロカチオンをフレーム化して、統計的質問応答によるユーザ中央集権性を実現するためのアプローチである。
XAIをベースとした2つのシステムにおいて,60名以上の参加者を対象とするユーザスタディを用いて仮説を検証した。
- 参考スコア(独自算出の注目度): 3.04585143845864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a new method for generating explanations with Artificial
Intelligence (AI) and a tool to test its expressive power within a user
interface. In order to bridge the gap between philosophy and human-computer
interfaces, we show a new approach for the generation of interactive
explanations based on a sophisticated pipeline of AI algorithms for structuring
natural language documents into knowledge graphs, answering questions
effectively and satisfactorily. With this work we aim to prove that the
philosophical theory of explanations presented by Achinstein can be actually
adapted for being implemented into a concrete software application, as an
interactive and illocutionary process of answering questions. Specifically, our
contribution is an approach to frame illocution in a computer-friendly way, to
achieve user-centrality with statistical question answering. In fact, we frame
illocution, in an explanatory process, as that mechanism responsible for
anticipating the needs of the explainee in the form of unposed, implicit,
archetypal questions, hence improving the user-centrality of the underlying
explanatory process. More precisely, we hypothesise that given an arbitrary
explanatory process, increasing its goal-orientedness and degree of illocution
results in the generation of more usable (as per ISO 9241-210) explanations. We
tested our hypotheses with a user-study involving more than 60 participants, on
two XAI-based systems, one for credit approval (finance) and one for heart
disease prediction (healthcare). The results showed that our proposed solution
produced a statistically significant improvement (hence with a p-value lower
than 0.05) on effectiveness. This, combined with a visible alignment between
the increments in effectiveness and satisfaction, suggests that our
understanding of illocution can be correct, giving evidence in favour of our
theory.
- Abstract(参考訳): 本稿では,人工知能(AI)による説明を生成する新しい手法と,ユーザインタフェース内で表現力をテストするツールを提案する。
哲学とヒューマン・コンピュータ・インタフェースのギャップを埋めるために、自然言語文書を知識グラフに構造化し、効果的かつ満足できる質問に答える、高度なaiアルゴリズムのパイプラインに基づく対話的説明の生成のための新しいアプローチを示す。
この研究により、Achinstein氏が提示した説明の哲学理論が、対話的でイライラした質問に答えるプロセスとして、具体的なソフトウェアアプリケーションに実際に適用可能であることを証明することを目指している。
特に,我々の貢献は,統計的質問応答によるユーザ中央集権化を実現するため,コンピュータフレンドリーな手法による不正行為の枠組み化である。
実際、我々は、説明者のニーズを未提示、暗黙的、根本的疑問の形で予測するメカニズムとして、説明過程においてイロカチオンを定式化し、基礎となる説明過程のユーザ中央性を改善する。
より正確には、任意の説明過程が与えられ、目標指向性やイロケーションの度合いが向上し、より有用な(ISO 9241-210)説明が生成されるという仮説を立てる。
XAIをベースとした2つのシステム(クレジット承認(ファイナンス)と心臓病予測(ヘルスケア))で,60名以上の参加者を対象に仮説を検証した。
その結果,提案手法は統計的に有意な改善(p値0.05未満)が得られた。
これは、効果の増大と満足度の間の目に見える一致と組み合わさって、我々のイロケーションに対する理解が正しいことを示唆し、我々の理論を支持する証拠を与える。
関連論文リスト
- Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Clarify When Necessary: Resolving Ambiguity Through Interaction with LMs [58.620269228776294]
そこで本稿では,ユーザに対して,あいまいさを解消するためのタスク非依存のフレームワークを提案する。
我々は3つのNLPアプリケーション(質問応答、機械翻訳、自然言語推論)にまたがるシステムを評価する。
インテントシムは堅牢であり、幅広いNLPタスクやLMの改善を実証している。
論文 参考訳(メタデータ) (2023-11-16T00:18:50Z) - Neural Amortized Inference for Nested Multi-agent Reasoning [54.39127942041582]
本研究では,人間のような推論能力と計算限界のギャップを埋める新しい手法を提案する。
提案手法を2つの挑戦的マルチエージェント相互作用領域で評価する。
論文 参考訳(メタデータ) (2023-08-21T22:40:36Z) - ASQ-IT: Interactive Explanations for Reinforcement-Learning Agents [7.9603223299524535]
本稿では,ユーザが興味のある行動の時間的特性を記述したクエリに基づいて,その環境に作用するエージェントのビデオクリップを提示する対話型ツールASQ-ITを提案する。
提案手法は,ASQ-ITのユーザインタフェースのクエリを有限トレース(LTLf)上の線形時間論理の断片にマッピングする形式的手法に基づいており,クエリ処理のアルゴリズムはオートマチック理論に基づいている。
論文 参考訳(メタデータ) (2023-01-24T11:57:37Z) - From Philosophy to Interfaces: an Explanatory Method and a Tool Inspired
by Achinstein's Theory of Explanation [3.04585143845864]
人工知能(AI)における新しい説明法を提案する。
我々は、AIアルゴリズムのパイプラインに基づいた対話型説明を生成するための新しいアプローチを示す。
我々はIBMによるよく知られたXAIによる信用承認システムで仮説を検証した。
論文 参考訳(メタデータ) (2021-09-09T11:10:03Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - You Impress Me: Dialogue Generation via Mutual Persona Perception [62.89449096369027]
認知科学の研究は、理解が高品質なチャット会話に不可欠なシグナルであることを示唆している。
そこで我々は,P2 Botを提案する。このP2 Botは,理解を明示的にモデル化することを目的とした送信機受信者ベースのフレームワークである。
論文 参考訳(メタデータ) (2020-04-11T12:51:07Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - A Study on Multimodal and Interactive Explanations for Visual Question
Answering [3.086885687016963]
視覚質問応答(VQA)タスクの設定において,マルチモーダルな説明を評価する。
結果は,VQAシステムの解答が不正確である場合に,人間の予測精度の向上に役立つことを示唆している。
本稿では,注意マップの編集による介入による因果的注意効果評価手法であるアクティブアテンションを導入する。
論文 参考訳(メタデータ) (2020-03-01T07:54:01Z) - How to Answer Why -- Evaluating the Explanations of AI Through Mental
Model Analysis [0.0]
人間中心のAI研究の鍵となる疑問は、ユーザーのメンタルモデルをどのように有効に調査するかである。
実験的な研究手法としてメンタルモデルが適切かどうかを評価する。
本稿では、人間中心の方法で説明可能なAIアプローチを評価するための模範的手法を提案する。
論文 参考訳(メタデータ) (2020-01-11T17:15:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。