論文の概要: Explainability Is in the Mind of the Beholder: Establishing the
Foundations of Explainable Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2112.14466v1
- Date: Wed, 29 Dec 2021 09:21:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-30 14:03:35.847525
- Title: Explainability Is in the Mind of the Beholder: Establishing the
Foundations of Explainable Artificial Intelligence
- Title(参考訳): 説明責任は株主の心にある:説明可能な人工知能の基礎を確立する
- Authors: Kacper Sokol and Peter Flach
- Abstract要約: 我々は、背景知識に基づいて解釈された透明な洞察(ブラックボックス)に適用する(論理的)推論として説明可能性を定義する。
我々は、透明性と予測力のトレードオフを再考し、アンテホックやポストホックの解説者への影響について述べる。
我々は、人間中心の説明可能性からさまざまなアイデアに基づいて、解釈可能性を必要とするかもしれない機械学習ワークフローのコンポーネントについて論じる。
- 参考スコア(独自算出の注目度): 11.472707084860875
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainable artificial intelligence and interpretable machine learning are
research fields growing in importance. Yet, the underlying concepts remain
somewhat elusive and lack generally agreed definitions. While recent
inspiration from social sciences has refocused the work on needs and
expectations of human recipients, the field still misses a concrete
conceptualisation. We take steps towards addressing this challenge by reviewing
the philosophical and social foundations of human explainability, which we then
translate into the technological realm. In particular, we scrutinise the notion
of algorithmic black boxes and the spectrum of understanding determined by
explanatory processes and explainees' background knowledge. This approach
allows us to define explainability as (logical) reasoning applied to
transparent insights (into black boxes) interpreted under certain background
knowledge - a process that engenders understanding in explainees. We then
employ this conceptualisation to revisit the much disputed trade-off between
transparency and predictive power and its implications for ante-hoc and
post-hoc explainers as well as fairness and accountability engendered by
explainability. We furthermore discuss components of the machine learning
workflow that may be in need of interpretability, building on a range of ideas
from human-centred explainability, with a focus on explainees, contrastive
statements and explanatory processes. Our discussion reconciles and complements
current research to help better navigate open questions - rather than
attempting to address any individual issue - thus laying a solid foundation for
a grounded discussion and future progress of explainable artificial
intelligence and interpretable machine learning. We conclude with a summary of
our findings, revisiting the human-centred explanatory process needed to
achieve the desired level of algorithmic transparency.
- Abstract(参考訳): 説明可能な人工知能と解釈可能な機械学習は、重要性を増す研究分野である。
しかし、基礎となる概念は幾分分かりやすく、一般的に合意された定義が欠如している。
社会科学からの近年のインスピレーションは、人間の受給者のニーズと期待に再び焦点を合わせてきたが、この分野は具体的な概念化を見逃している。
我々は、人間の説明可能性の哲学的・社会的基盤を見直し、技術的領域に転換することで、この問題に対処する。
特に,アルゴリズム的ブラックボックスの概念と,説明過程や説明者の背景知識によって決定される理解のスペクトルを精査する。
このアプローチにより、説明可能性を、ある背景知識の下で解釈される透明な洞察(ブラックボックス内)に適用される(論理的な)推論として定義することができます。
次に、この概念化を用いて、透明性と予測力の間の非常に論争の多いトレードオフと、アンテホックとポストホックな説明者と、説明可能性によって引き起こされる公正さと説明責任との関係を再考する。
さらに,人間中心の説明可能性から,説明者,対照文,説明過程に焦点をあてて,解釈可能性を必要とする機械学習ワークフローの構成要素について論じる。
私たちの議論は、オープン質問(個々の問題に対処するのではなく)をよりよくナビゲートするために、現在の研究と和解し、補完します。
結論として,アルゴリズムの透明性の要求レベルを達成するために必要な人間中心的説明プロセスについて考察した。
関連論文リスト
- Explainers' Mental Representations of Explainees' Needs in Everyday Explanations [0.0]
説明において、説明者は説明者の知識の発達と説明に関する関心の変化を精神的に表現する。
XAIは、同様の方法で説明者の要求に反応できるべきです。
本研究では,工芸品の日常的説明における説明者の心的表現について検討した。
論文 参考訳(メタデータ) (2024-11-13T10:53:07Z) - Forms of Understanding of XAI-Explanations [2.887772793510463]
本稿では、説明可能な人工知能(XAI)の文脈における理解形態のモデル提示を目的とする。
2種類の理解は説明の可能な結果、すなわち有効性と理解の可能な結果と見なされる。
XAIにおける理解の特別な課題について論じる。
論文 参考訳(メタデータ) (2023-11-15T08:06:51Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - Interpretability is in the Mind of the Beholder: A Causal Framework for
Human-interpretable Representation Learning [22.201878275784246]
説明可能なAIは、入力機能などの低レベル要素の観点から定義された説明から、データから学んだ解釈可能な概念でエンコードされた説明へとシフトしている。
しかし、そのような概念を確実に取得する方法は、基本的には不明確である。
ポストホックな説明器と概念に基づくニューラルネットワークの両方に適した解釈可能な表現を得るための数学的枠組みを提案する。
論文 参考訳(メタデータ) (2023-09-14T14:26:20Z) - Mind the Gap! Bridging Explainable Artificial Intelligence and Human Understanding with Luhmann's Functional Theory of Communication [5.742215677251865]
我々は、説明可能な人工知能の課題を強調するために、社会システム理論を適用した。
我々は,インタラクティブかつ反復的な説明者の方向性で技術研究を再活性化することを目的としている。
論文 参考訳(メタデータ) (2023-02-07T13:31:02Z) - Sensible AI: Re-imagining Interpretability and Explainability using
Sensemaking Theory [14.35488479818285]
Weickのセンスメイキング理論に基づく解釈可能性の代替的枠組みを提案する。
私たちは、Sensible AIの設計ガイドラインを議論するためのテンプレートとして、組織におけるセンスメイキングの応用を使用します。
論文 参考訳(メタデータ) (2022-05-10T17:20:44Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Interpretable Deep Learning: Interpretations, Interpretability,
Trustworthiness, and Beyond [49.93153180169685]
一般に混同される2つの基本的な概念(解釈と解釈可能性)を紹介・明らかにする。
我々は,新しい分類法を提案することにより,異なる視点から,最近のいくつかの解釈アルゴリズムの設計を詳細に述べる。
信頼される」解釈アルゴリズムを用いてモデルの解釈可能性を評価する上での既存の作業をまとめる。
論文 参考訳(メタデータ) (2021-03-19T08:40:30Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Neuro-symbolic Architectures for Context Understanding [59.899606495602406]
本稿では,データ駆動型アプローチと知識駆動型アプローチの強みを組み合わせたフレームワークとして,ハイブリッドAI手法を提案する。
具体的には、知識ベースを用いて深層ニューラルネットワークの学習過程を導く方法として、ニューロシンボリズムの概念を継承する。
論文 参考訳(メタデータ) (2020-03-09T15:04:07Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。