論文の概要: Sensible AI: Re-imagining Interpretability and Explainability using
Sensemaking Theory
- arxiv url: http://arxiv.org/abs/2205.05057v1
- Date: Tue, 10 May 2022 17:20:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-14 10:57:00.473506
- Title: Sensible AI: Re-imagining Interpretability and Explainability using
Sensemaking Theory
- Title(参考訳): 感性ai:感覚形成理論を用いた解釈可能性と説明可能性の再認識
- Authors: Harmanpreet Kaur, Eytan Adar, Eric Gilbert, Cliff Lampe
- Abstract要約: Weickのセンスメイキング理論に基づく解釈可能性の代替的枠組みを提案する。
私たちは、Sensible AIの設計ガイドラインを議論するためのテンプレートとして、組織におけるセンスメイキングの応用を使用します。
- 参考スコア(独自算出の注目度): 14.35488479818285
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding how ML models work is a prerequisite for responsibly designing,
deploying, and using ML-based systems. With interpretability approaches, ML can
now offer explanations for its outputs to aid human understanding. Though these
approaches rely on guidelines for how humans explain things to each other, they
ultimately solve for improving the artifact -- an explanation. In this paper,
we propose an alternate framework for interpretability grounded in Weick's
sensemaking theory, which focuses on who the explanation is intended for.
Recent work has advocated for the importance of understanding stakeholders'
needs -- we build on this by providing concrete properties (e.g., identity,
social context, environmental cues, etc.) that shape human understanding. We
use an application of sensemaking in organizations as a template for discussing
design guidelines for Sensible AI, AI that factors in the nuances of human
cognition when trying to explain itself.
- Abstract(参考訳): MLモデルがどのように動作するかを理解することは、MLベースのシステムを責任を持って設計、デプロイ、使用するための前提条件である。
解釈可能性のアプローチにより、MLは人間の理解に役立つアウトプットの説明を提供することができる。
Though these approaches rely on guidelines for how humans explain things to each other, they ultimately solve for improving the artifact -- an explanation. In this paper, we propose an alternate framework for interpretability grounded in Weick's sensemaking theory, which focuses on who the explanation is intended for. Recent work has advocated for the importance of understanding stakeholders' needs -- we build on this by providing concrete properties (e.g., identity, social context, environmental cues, etc.) that shape human understanding.
我々は、人間の認知のニュアンスに影響を及ぼすAIであるSensible AIの設計ガイドラインを議論するためのテンプレートとして、組織におけるセンスメイキングの応用を使用している。
- 全文 参考訳へのリンク
関連論文リスト
- Rethinking Explainability as a Dialogue: A Practitioner's Perspective [57.87089539718344]
医師、医療専門家、政策立案者に対して、説明を求めるニーズと欲求について尋ねる。
本研究は, 自然言語対話の形での対話的説明を, 意思決定者が強く好むことを示唆する。
これらのニーズを考慮して、インタラクティブな説明を設計する際に、研究者が従うべき5つの原則を概説する。
論文 参考訳(メタデータ) (2022-02-03T22:17:21Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Diagnosing AI Explanation Methods with Folk Concepts of Behavior [51.78122549530914]
我々は、人間が行動を理解するために使用する民間概念について、心文学の理論を活用することで、答えを提供する。
我々は,人間の説明者による社会的帰属の枠組みを構築し,説明機能を記述する。
我々は,多くのXAI機構を民生的な行動概念にマッピングできることを実証した。
論文 参考訳(メタデータ) (2022-01-27T00:19:41Z) - Explainability Is in the Mind of the Beholder: Establishing the
Foundations of Explainable Artificial Intelligence [11.472707084860875]
我々は、背景知識に基づいて解釈された透明な洞察(ブラックボックス)に適用する(論理的)推論として説明可能性を定義する。
我々は、透明性と予測力のトレードオフを再考し、アンテホックやポストホックの解説者への影響について述べる。
我々は、人間中心の説明可能性からさまざまなアイデアに基づいて、解釈可能性を必要とするかもしれない機械学習ワークフローのコンポーネントについて論じる。
論文 参考訳(メタデータ) (2021-12-29T09:21:33Z) - CX-ToM: Counterfactual Explanations with Theory-of-Mind for Enhancing
Human Trust in Image Recognition Models [84.32751938563426]
我々は、深層畳み込みニューラルネットワーク(CNN)による決定を説明するための、新しい説明可能なAI(XAI)フレームワークを提案する。
単発応答として説明を生成するXAIの現在の手法とは対照的に,我々は反復的な通信プロセスとして説明を行う。
本フレームワークは,機械の心と人間の心の相違を媒介し,対話における説明文のシーケンスを生成する。
論文 参考訳(メタデータ) (2021-09-03T09:46:20Z) - Prompting Contrastive Explanations for Commonsense Reasoning Tasks [74.7346558082693]
大規模事前学習言語モデル(PLM)は、常識推論タスクにおいて、ほぼ人間に近い性能を達成することができる。
人間の解釈可能な証拠を生成するために、同じモデルを使う方法を示す。
論文 参考訳(メタデータ) (2021-06-12T17:06:13Z) - Towards an Explanation Space to Align Humans and Explainable-AI Teamwork [0.0]
本稿では,ユーザインスパイアされた視点から説明空間を定義する形式的アーキテクチャを提案する。
アーキテクチャは、タスクの説明要件を概説する5つのコンポーネントから構成される。
アーキテクチャのコンポーネントを集約してデザイナを支援するモデリングツールであるAbstracted Explanation Spaceを紹介する。
論文 参考訳(メタデータ) (2021-06-02T23:17:29Z) - Compositional Processing Emerges in Neural Networks Solving Math
Problems [100.80518350845668]
人工知能の最近の進歩は、大きなモデルが十分な言語データに基づいて訓練されると、文法構造が表現に現れることを示している。
我々は、この研究を数学的推論の領域にまで拡張し、どのように意味を構成するべきかについての正確な仮説を定式化することができる。
私たちの研究は、ニューラルネットワークがトレーニングデータに暗黙的に構造化された関係について何かを推測できるだけでなく、個々の意味の合成を合成全体へと導くために、この知識を展開できることを示している。
論文 参考訳(メタデータ) (2021-05-19T07:24:42Z) - Cognitive Perspectives on Context-based Decisions and Explanations [0.0]
本稿では,xaiの文脈的重要性と有用性が,現在の新たな行動指向予測表現構造の波と重なり合うことを示す。
これは説明可能なAIに影響を及ぼし、人間の聴衆にコンピュータの意思決定の説明を提供することが目的です。
論文 参考訳(メタデータ) (2021-01-25T15:49:52Z) - Are We On The Same Page? Hierarchical Explanation Generation for
Planning Tasks in Human-Robot Teaming using Reinforcement Learning [0.0]
我々は、エージェント生成の説明は、人間のチームメイトが受信者の認知負荷を維持するために望む詳細のレベルに合わせて抽象化されるべきであると主張します。
階層的な説明は, 認知負荷を低減しつつ, 作業性能と行動解釈性を向上することを示した。
論文 参考訳(メタデータ) (2020-12-22T02:14:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。