論文の概要: From Philosophy to Interfaces: an Explanatory Method and a Tool Inspired
by Achinstein's Theory of Explanation
- arxiv url: http://arxiv.org/abs/2109.04171v1
- Date: Thu, 9 Sep 2021 11:10:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-10 14:06:52.609758
- Title: From Philosophy to Interfaces: an Explanatory Method and a Tool Inspired
by Achinstein's Theory of Explanation
- Title(参考訳): 哲学からインターフェイスへ:アチンシュタインの説明理論に触発された説明的方法と道具
- Authors: Francesco Sovrano and Fabio Vitali
- Abstract要約: 人工知能(AI)における新しい説明法を提案する。
我々は、AIアルゴリズムのパイプラインに基づいた対話型説明を生成するための新しいアプローチを示す。
我々はIBMによるよく知られたXAIによる信用承認システムで仮説を検証した。
- 参考スコア(独自算出の注目度): 3.04585143845864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a new method for explanations in Artificial Intelligence (AI) and
a tool to test its expressive power within a user interface. In order to bridge
the gap between philosophy and human-computer interfaces, we show a new
approach for the generation of interactive explanations based on a
sophisticated pipeline of AI algorithms for structuring natural language
documents into knowledge graphs, answering questions effectively and
satisfactorily. Among the mainstream philosophical theories of explanation we
identified one that in our view is more easily applicable as a practical model
for user-centric tools: Achinstein's Theory of Explanation. With this work we
aim to prove that the theory proposed by Achinstein can be actually adapted for
being implemented into a concrete software application, as an interactive
process answering questions. To this end we found a way to handle the generic
(archetypal) questions that implicitly characterise an explanatory processes as
preliminary overviews rather than as answers to explicit questions, as commonly
understood. To show the expressive power of this approach we designed and
implemented a pipeline of AI algorithms for the generation of interactive
explanations under the form of overviews, focusing on this aspect of
explanations rather than on existing interfaces and presentation logic layers
for question answering. We tested our hypothesis on a well-known XAI-powered
credit approval system by IBM, comparing CEM, a static explanatory tool for
post-hoc explanations, with an extension we developed adding interactive
explanations based on our model. The results of the user study, involving more
than 100 participants, showed that our proposed solution produced a
statistically relevant improvement on effectiveness (U=931.0, p=0.036) over the
baseline, thus giving evidence in favour of our theory.
- Abstract(参考訳): 本稿では,人工知能(AI)における説明のための新しい手法と,ユーザインタフェース内で表現力をテストするツールを提案する。
哲学とヒューマン・コンピュータ・インタフェースのギャップを埋めるために、自然言語文書を知識グラフに構造化し、効果的かつ満足できる質問に答える、高度なaiアルゴリズムのパイプラインに基づく対話的説明の生成のための新しいアプローチを示す。
説明論の主流となる哲学的理論の中で、我々の見解では、ユーザー中心のツールの実用的なモデルとして、より容易に適用できるものを見つけ出した。
この研究により、アチンシュタインが提案した理論が実際に具体的なソフトウェアアプリケーションに実装され、疑問に答える対話的プロセスとして適用できることを証明することを目指している。
この目的のために私たちは、説明過程を明示的な質問に対する答えとしてではなく、予備的な概要として暗黙的に特徴づける一般的な(階層的な)質問を扱う方法を見つけました。
このアプローチの表現力を示すために,我々は,質問応答のための既存のインターフェースやプレゼンテーションロジックレイヤではなく,説明のこの側面に注目し,概要の形で対話的説明を生成するためのAIアルゴリズムのパイプラインを設計,実装した。
我々は,IBM によるよく知られた XAI による信用承認システムにおいて,ポストホックな説明のための静的説明ツール CEM と,モデルに基づく対話型説明を追加するエクステンションを比較検討した。
その結果,100名以上の被験者を対象とするユーザスタディの結果,提案手法はベースライン上での有効性(U=931.0,p=0.036)を統計的に向上させることができた。
関連論文リスト
- An Ontology-Enabled Approach For User-Centered and Knowledge-Enabled Explanations of AI Systems [0.3480973072524161]
説明可能性に関する最近の研究は、AIモデルやモデル説明可能性の動作を説明することに重点を置いている。
この論文は、モデルとユーザ中心の説明可能性の間のギャップを埋めようとしている。
論文 参考訳(メタデータ) (2024-10-23T02:03:49Z) - Pangu-Agent: A Fine-Tunable Generalist Agent with Structured Reasoning [50.47568731994238]
人工知能(AI)エージェント作成の鍵となる方法は強化学習(RL)である
本稿では,構造化推論をAIエージェントのポリシーに統合し,学習するための一般的なフレームワークモデルを提案する。
論文 参考訳(メタデータ) (2023-12-22T17:57:57Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Large Language Models as Analogical Reasoners [155.9617224350088]
CoT(Chain-of- Thought)は、言語モデルのプロンプトとして、推論タスク全体で素晴らしいパフォーマンスを示す。
そこで本稿では,大規模言語モデルの推論プロセスを自動的にガイドする,新たなプロンプト手法であるアナログプロンプトを導入する。
論文 参考訳(メタデータ) (2023-10-03T00:57:26Z) - ASQ-IT: Interactive Explanations for Reinforcement-Learning Agents [7.9603223299524535]
本稿では,ユーザが興味のある行動の時間的特性を記述したクエリに基づいて,その環境に作用するエージェントのビデオクリップを提示する対話型ツールASQ-ITを提案する。
提案手法は,ASQ-ITのユーザインタフェースのクエリを有限トレース(LTLf)上の線形時間論理の断片にマッピングする形式的手法に基づいており,クエリ処理のアルゴリズムはオートマチック理論に基づいている。
論文 参考訳(メタデータ) (2023-01-24T11:57:37Z) - A Theoretical Framework for AI Models Explainability with Application in
Biomedicine [3.5742391373143474]
本稿では,文献に見いだせる内容の合成である説明の新たな定義を提案する。
我々は、忠実性(すなわち、モデルの内部動作と意思決定プロセスの真の説明である説明)と可否性(つまり、その説明がどの程度ユーザにとって説得力のあるように見えるか)の性質に、説明を適合させる。
論文 参考訳(メタデータ) (2022-12-29T20:05:26Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Generating User-Centred Explanations via Illocutionary Question
Answering: From Philosophy to Interfaces [3.04585143845864]
我々は、AIアルゴリズムの洗練されたパイプラインに基づく対話型説明を生成するための新しいアプローチを示す。
我々の貢献は、コンピュータフレンドリーな方法でイロカチオンをフレーム化して、統計的質問応答によるユーザ中央集権性を実現するためのアプローチである。
XAIをベースとした2つのシステムにおいて,60名以上の参加者を対象とするユーザスタディを用いて仮説を検証した。
論文 参考訳(メタデータ) (2021-10-02T09:06:36Z) - CX-ToM: Counterfactual Explanations with Theory-of-Mind for Enhancing
Human Trust in Image Recognition Models [84.32751938563426]
我々は、深層畳み込みニューラルネットワーク(CNN)による決定を説明するための、新しい説明可能なAI(XAI)フレームワークを提案する。
単発応答として説明を生成するXAIの現在の手法とは対照的に,我々は反復的な通信プロセスとして説明を行う。
本フレームワークは,機械の心と人間の心の相違を媒介し,対話における説明文のシーケンスを生成する。
論文 参考訳(メタデータ) (2021-09-03T09:46:20Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。