論文の概要: An Information Bottleneck Characterization of the Understanding-Workload
Tradeoff
- arxiv url: http://arxiv.org/abs/2310.07802v1
- Date: Wed, 11 Oct 2023 18:35:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-14 14:25:29.320044
- Title: An Information Bottleneck Characterization of the Understanding-Workload
Tradeoff
- Title(参考訳): 理解とワークロードのトレードオフに関する情報ボトルネック
- Authors: Lindsay Sanneman, Mycal Tucker, and Julie Shah
- Abstract要約: 説明可能なAI(XAI)設計において、説明の有効性に影響を及ぼす人的要因の考察が重要である。
XAIの既存の作業は、さまざまなタイプの説明によって引き起こされる理解と作業負荷のトレードオフを実証している。
- 参考スコア(独自算出の注目度): 15.90243405031747
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in artificial intelligence (AI) have underscored the need for
explainable AI (XAI) to support human understanding of AI systems.
Consideration of human factors that impact explanation efficacy, such as mental
workload and human understanding, is central to effective XAI design. Existing
work in XAI has demonstrated a tradeoff between understanding and workload
induced by different types of explanations. Explaining complex concepts through
abstractions (hand-crafted groupings of related problem features) has been
shown to effectively address and balance this workload-understanding tradeoff.
In this work, we characterize the workload-understanding balance via the
Information Bottleneck method: an information-theoretic approach which
automatically generates abstractions that maximize informativeness and minimize
complexity. In particular, we establish empirical connections between workload
and complexity and between understanding and informativeness through
human-subject experiments. This empirical link between human factors and
information-theoretic concepts provides an important mathematical
characterization of the workload-understanding tradeoff which enables
user-tailored XAI design.
- Abstract(参考訳): 人工知能(AI)の最近の進歩は、AIシステムの人間の理解を支援するために、説明可能なAI(XAI)の必要性を強調している。
精神労働負荷や人的理解などの説明効果に影響を与える人的要因の考察は、効果的なXAI設計の中心である。
XAIの既存の作業は、さまざまなタイプの説明によって引き起こされる理解と作業負荷のトレードオフを示している。
抽象化(関連する問題機能の手作りのグループ)を通じて複雑な概念を説明することで、このワークロードを理解するトレードオフを効果的に解決し、バランスをとることが示されています。
本稿では,情報量と複雑性を最大化する抽象化を自動的に生成する情報理論アプローチとして,Information Bottleneck法による作業負荷のバランスを特徴付ける。
特に,作業負荷と複雑性,および人体実験による理解と情報提供の相互関係を実証的に確立する。
この人的要因と情報理論的概念との実証的なリンクは、ユーザがカスタマイズしたXAI設計を可能にするワークロードのトレードオフの重要な数学的特徴を提供する。
関連論文リスト
- Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Helpful, Misleading or Confusing: How Humans Perceive Fundamental
Building Blocks of Artificial Intelligence Explanations [11.667611038005552]
我々は、洗練された予測アルゴリズムから一歩引いて、単純な意思決定モデルの説明可能性について検討する。
我々は、人々がそれぞれの表現の理解性をどう感じているかを評価することを目的とする。
これにより、さまざまな利害関係者が、より精巧な人工知能の説明が構築される基本的な概念の無知性を判断することができる。
論文 参考訳(メタデータ) (2023-03-02T03:15:35Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Towards Explainable Artificial Intelligence in Banking and Financial
Services [0.0]
説明可能な人工知能(XAI)の手法とツールを用いた最近の研究を研究・分析する。
我々は,高レベルの学習性能を維持しつつ,説明可能なモデルの作成を容易にする新しいXAIプロセスを導入する。
我々は,アルゴリズム結果との対話を容易にするデジタルダッシュボードを開発した。
論文 参考訳(メタデータ) (2021-12-14T08:02:13Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Neuro-symbolic Architectures for Context Understanding [59.899606495602406]
本稿では,データ駆動型アプローチと知識駆動型アプローチの強みを組み合わせたフレームワークとして,ハイブリッドAI手法を提案する。
具体的には、知識ベースを用いて深層ニューラルネットワークの学習過程を導く方法として、ニューロシンボリズムの概念を継承する。
論文 参考訳(メタデータ) (2020-03-09T15:04:07Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。