論文の概要: Fiper: a Visual-based Explanation Combining Rules and Feature Importance
- arxiv url: http://arxiv.org/abs/2404.16903v1
- Date: Thu, 25 Apr 2024 09:15:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-29 15:03:56.046212
- Title: Fiper: a Visual-based Explanation Combining Rules and Feature Importance
- Title(参考訳): Fiper: ルールと機能の重要性を組み合わせたビジュアルベースの説明
- Authors: Eleonora Cappuccio, Daniele Fadda, Rosa Lanzilotti, Salvatore Rinzivillo,
- Abstract要約: 説明可能な人工知能は、いわゆるブラックボックスアルゴリズムの予測を説明するツールとテクニックを設計することを目的としている。
本稿では,特徴量と組み合わせたルールを視覚的に記述する手法を提案する。
- 参考スコア(独自算出の注目度): 3.2982707161882967
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial Intelligence algorithms have now become pervasive in multiple high-stakes domains. However, their internal logic can be obscure to humans. Explainable Artificial Intelligence aims to design tools and techniques to illustrate the predictions of the so-called black-box algorithms. The Human-Computer Interaction community has long stressed the need for a more user-centered approach to Explainable AI. This approach can benefit from research in user interface, user experience, and visual analytics. This paper proposes a visual-based method to illustrate rules paired with feature importance. A user study with 15 participants was conducted comparing our visual method with the original output of the algorithm and textual representation to test its effectiveness with users.
- Abstract(参考訳): 人工知能アルゴリズムは、今や複数のハイテイクドメインで普及している。
しかし、その内部論理は人間には不明瞭である。
説明可能な人工知能は、いわゆるブラックボックスアルゴリズムの予測を説明するツールとテクニックを設計することを目的としている。
Human-Computer Interactionコミュニティは、Explainable AIに対して、よりユーザ中心のアプローチの必要性を強調してきた。
このアプローチは、ユーザインターフェース、ユーザエクスペリエンス、およびビジュアル分析の研究の恩恵を受けることができる。
本稿では,特徴量と組み合わせたルールを視覚的に記述する手法を提案する。
15名の被験者によるユーザスタディを,アルゴリズムの本来の出力とテキスト表現の視覚的手法を比較し,その有効性をユーザとテストした。
関連論文リスト
- CoProNN: Concept-based Prototypical Nearest Neighbors for Explaining Vision Models [1.0855602842179624]
ドメインエキスパートが自然言語で直感的にコンピュータビジョンタスクのコンセプトベースの説明を素早く作成できる新しいアプローチを提案する。
CoProNNのモジュラー設計は実装が簡単で、新しいタスクに適応しやすく、分類とテキスト・トゥ・イメージ・モデルを置き換えることができる。
我々の戦略は、粗粒度画像分類タスクにおける他の概念ベースのXAIアプローチと非常によく競合し、さらに細粒度細粒度タスクにおいてそれらの手法よりも優れることを示した。
論文 参考訳(メタデータ) (2024-04-23T08:32:38Z) - Enhancing HOI Detection with Contextual Cues from Large Vision-Language Models [56.257840490146]
ConCueは、HOI検出における視覚的特徴抽出を改善するための新しいアプローチである。
コンテクストキューをインスタンスと相互作用検出器の両方に統合するマルチトウワーアーキテクチャを用いたトランスフォーマーベースの特徴抽出モジュールを開発した。
論文 参考訳(メタデータ) (2023-11-26T09:11:32Z) - RLIF: Interactive Imitation Learning as Reinforcement Learning [56.997263135104504]
我々は,対話型模倣学習と類似するが,さらに実践的な仮定の下で,非政治強化学習によってパフォーマンスが向上できることを実証する。
提案手法は,ユーザ介入信号を用いた強化学習を報奨として利用する。
このことは、インタラクティブな模倣学習において介入する専門家がほぼ最適であるべきだという仮定を緩和し、アルゴリズムが潜在的に最適でない人間の専門家よりも改善される行動を学ぶことを可能にする。
論文 参考訳(メタデータ) (2023-11-21T21:05:21Z) - Explaining Deep Face Algorithms through Visualization: A Survey [57.60696799018538]
本研究は、顔領域における説明可能性アルゴリズムの第一種メタ分析を行う。
既存のフェース説明可能性について概観し、フェースネットワークの構造と階層に関する貴重な知見を明らかにする。
論文 参考訳(メタデータ) (2023-09-26T07:16:39Z) - Helpful, Misleading or Confusing: How Humans Perceive Fundamental
Building Blocks of Artificial Intelligence Explanations [11.667611038005552]
我々は、洗練された予測アルゴリズムから一歩引いて、単純な意思決定モデルの説明可能性について検討する。
我々は、人々がそれぞれの表現の理解性をどう感じているかを評価することを目的とする。
これにより、さまざまな利害関係者が、より精巧な人工知能の説明が構築される基本的な概念の無知性を判断することができる。
論文 参考訳(メタデータ) (2023-03-02T03:15:35Z) - Towards Involving End-users in Interactive Human-in-the-loop AI Fairness [1.889930012459365]
人工知能(AI)における公正性の確保は、遠縁な応用においてバイアスや差別に対処するために重要である。
最近の研究は、人間が公正さを判断する方法と、AIモデルを公平にするために機械学習の専門家(ML)をサポートする方法について調査し始めている。
我々の研究は、通常のエンドユーザが潜在的公正性の問題を特定することができる、解釈可能でインタラクティブなヒューマン・イン・ザ・ループ・インタフェースの設計について検討している。
論文 参考訳(メタデータ) (2022-04-22T02:24:11Z) - ASHA: Assistive Teleoperation via Human-in-the-Loop Reinforcement
Learning [91.58711082348293]
オンラインユーザからのフィードバックからシステムのパフォーマンスに関する強化学習は、この問題に対する自然な解決策である。
このアプローチでは、特にフィードバックが不足している場合には、ループ内の大量のトレーニングデータが必要になる傾向があります。
疎いユーザフィードバックから効率的に学習する階層型ソリューションを提案する。
論文 参考訳(メタデータ) (2022-02-05T02:01:19Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - Leveraging Rationales to Improve Human Task Performance [15.785125079811902]
計算システムの性能が人間のユーザを上回ることを考えれば、人間のパフォーマンスを改善するために説明可能なAI能力を活用することができるだろうか?
本稿では,ユーティリティベースの計算手法の合理性を自動生成するRationale-Generating Algorithmを紹介する。
以上の結果から,本手法は人事性能の統計的改善につながる有理性を生み出すことが示唆された。
論文 参考訳(メタデータ) (2020-02-11T04:51:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。