論文の概要: Generating User-Centred Explanations via Illocutionary Question
Answering: From Philosophy to Interfaces
- arxiv url: http://arxiv.org/abs/2110.00762v1
- Date: Sat, 2 Oct 2021 09:06:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-05 15:23:24.506515
- Title: Generating User-Centred Explanations via Illocutionary Question
Answering: From Philosophy to Interfaces
- Title(参考訳): Illocutionary Question Answeringによるユーザ中心説明の生成:哲学からインターフェースへ
- Authors: Francesco Sovrano, Fabio Vitali
- Abstract要約: 我々は、AIアルゴリズムの洗練されたパイプラインに基づく対話型説明を生成するための新しいアプローチを示す。
我々の貢献は、コンピュータフレンドリーな方法でイロカチオンをフレーム化して、統計的質問応答によるユーザ中央集権性を実現するためのアプローチである。
XAIをベースとした2つのシステムにおいて,60名以上の参加者を対象とするユーザスタディを用いて仮説を検証した。
- 参考スコア(独自算出の注目度): 3.04585143845864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a new method for generating explanations with Artificial
Intelligence (AI) and a tool to test its expressive power within a user
interface. In order to bridge the gap between philosophy and human-computer
interfaces, we show a new approach for the generation of interactive
explanations based on a sophisticated pipeline of AI algorithms for structuring
natural language documents into knowledge graphs, answering questions
effectively and satisfactorily. With this work we aim to prove that the
philosophical theory of explanations presented by Achinstein can be actually
adapted for being implemented into a concrete software application, as an
interactive and illocutionary process of answering questions. Specifically, our
contribution is an approach to frame illocution in a computer-friendly way, to
achieve user-centrality with statistical question answering. In fact, we frame
illocution, in an explanatory process, as that mechanism responsible for
anticipating the needs of the explainee in the form of unposed, implicit,
archetypal questions, hence improving the user-centrality of the underlying
explanatory process. More precisely, we hypothesise that given an arbitrary
explanatory process, increasing its goal-orientedness and degree of illocution
results in the generation of more usable (as per ISO 9241-210) explanations. We
tested our hypotheses with a user-study involving more than 60 participants, on
two XAI-based systems, one for credit approval (finance) and one for heart
disease prediction (healthcare). The results showed that our proposed solution
produced a statistically significant improvement (hence with a p-value lower
than 0.05) on effectiveness. This, combined with a visible alignment between
the increments in effectiveness and satisfaction, suggests that our
understanding of illocution can be correct, giving evidence in favour of our
theory.
- Abstract(参考訳): 本稿では,人工知能(AI)による説明を生成する新しい手法と,ユーザインタフェース内で表現力をテストするツールを提案する。
哲学とヒューマン・コンピュータ・インタフェースのギャップを埋めるために、自然言語文書を知識グラフに構造化し、効果的かつ満足できる質問に答える、高度なaiアルゴリズムのパイプラインに基づく対話的説明の生成のための新しいアプローチを示す。
この研究により、Achinstein氏が提示した説明の哲学理論が、対話的でイライラした質問に答えるプロセスとして、具体的なソフトウェアアプリケーションに実際に適用可能であることを証明することを目指している。
特に,我々の貢献は,統計的質問応答によるユーザ中央集権化を実現するため,コンピュータフレンドリーな手法による不正行為の枠組み化である。
実際、我々は、説明者のニーズを未提示、暗黙的、根本的疑問の形で予測するメカニズムとして、説明過程においてイロカチオンを定式化し、基礎となる説明過程のユーザ中央性を改善する。
より正確には、任意の説明過程が与えられ、目標指向性やイロケーションの度合いが向上し、より有用な(ISO 9241-210)説明が生成されるという仮説を立てる。
XAIをベースとした2つのシステム(クレジット承認(ファイナンス)と心臓病予測(ヘルスケア))で,60名以上の参加者を対象に仮説を検証した。
その結果,提案手法は統計的に有意な改善(p値0.05未満)が得られた。
これは、効果の増大と満足度の間の目に見える一致と組み合わさって、我々のイロケーションに対する理解が正しいことを示唆し、我々の理論を支持する証拠を与える。
関連論文リスト
- Likelihood as a Performance Gauge for Retrieval-Augmented Generation [78.28197013467157]
言語モデルの性能の効果的な指標としての可能性を示す。
提案手法は,より優れた性能をもたらすプロンプトの選択と構築のための尺度として,疑似可能性を利用する2つの手法を提案する。
論文 参考訳(メタデータ) (2024-11-12T13:14:09Z) - An Ontology-Enabled Approach For User-Centered and Knowledge-Enabled Explanations of AI Systems [0.3480973072524161]
説明可能性に関する最近の研究は、AIモデルやモデル説明可能性の動作を説明することに重点を置いている。
この論文は、モデルとユーザ中心の説明可能性の間のギャップを埋めようとしている。
論文 参考訳(メタデータ) (2024-10-23T02:03:49Z) - From Pixels to Words: Leveraging Explainability in Face Recognition through Interactive Natural Language Processing [2.7568948557193287]
顔認識(FR)は深層学習の発展とともに大きく進歩し、いくつかの応用において高い精度を実現している。
これらのシステムの解釈可能性の欠如は、説明責任、公平性、信頼性に関する懸念を引き起こす。
モデルに依存しない説明可能な人工知能(XAI)と自然言語処理(NLP)技術を組み合わせることにより、FRモデルの説明可能性を高めるインタラクティブなフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T13:40:39Z) - Clarify When Necessary: Resolving Ambiguity Through Interaction with LMs [58.620269228776294]
そこで本稿では,ユーザに対して,あいまいさを解消するためのタスク非依存のフレームワークを提案する。
我々は3つのNLPアプリケーション(質問応答、機械翻訳、自然言語推論)にまたがるシステムを評価する。
インテントシムは堅牢であり、幅広いNLPタスクやLMの改善を実証している。
論文 参考訳(メタデータ) (2023-11-16T00:18:50Z) - Neural Amortized Inference for Nested Multi-agent Reasoning [54.39127942041582]
本研究では,人間のような推論能力と計算限界のギャップを埋める新しい手法を提案する。
提案手法を2つの挑戦的マルチエージェント相互作用領域で評価する。
論文 参考訳(メタデータ) (2023-08-21T22:40:36Z) - Self-Polish: Enhance Reasoning in Large Language Models via Problem Refinement [50.62461749446111]
Self-Polish(SP)は、与えられた問題を徐々に洗練し、より理解しやすく解けるように誘導することによって、モデルの推論を促進する新しい方法である。
SPは、CoTのような答え/推論サイドの他のすべてのプロンプトメソッドであり、最先端の技術とのシームレスな統合を可能にし、さらなる改善を可能にします。
論文 参考訳(メタデータ) (2023-05-23T19:58:30Z) - ASQ-IT: Interactive Explanations for Reinforcement-Learning Agents [7.9603223299524535]
本稿では,ユーザが興味のある行動の時間的特性を記述したクエリに基づいて,その環境に作用するエージェントのビデオクリップを提示する対話型ツールASQ-ITを提案する。
提案手法は,ASQ-ITのユーザインタフェースのクエリを有限トレース(LTLf)上の線形時間論理の断片にマッピングする形式的手法に基づいており,クエリ処理のアルゴリズムはオートマチック理論に基づいている。
論文 参考訳(メタデータ) (2023-01-24T11:57:37Z) - From Philosophy to Interfaces: an Explanatory Method and a Tool Inspired
by Achinstein's Theory of Explanation [3.04585143845864]
人工知能(AI)における新しい説明法を提案する。
我々は、AIアルゴリズムのパイプラインに基づいた対話型説明を生成するための新しいアプローチを示す。
我々はIBMによるよく知られたXAIによる信用承認システムで仮説を検証した。
論文 参考訳(メタデータ) (2021-09-09T11:10:03Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。