論文の概要: The Influence of Explainable Artificial Intelligence: Nudging Behaviour
or Boosting Capability?
- arxiv url: http://arxiv.org/abs/2210.02407v1
- Date: Wed, 5 Oct 2022 17:28:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 14:44:20.836344
- Title: The Influence of Explainable Artificial Intelligence: Nudging Behaviour
or Boosting Capability?
- Title(参考訳): 説明可能な人工知能の影響: ヌージング行動か、あるいは強化能力か?
- Authors: Matija Franklin
- Abstract要約: 本稿では、説明可能な人工知能(XAI)が人々の行動や認知にどのように影響するかを分析するための理論的説明とそれに対応するパラダイムを提供することを目的とする。
行動変化のテクニックを考えるための2つの注目すべきフレームワークは、行動に影響を与えることを目的としたナッジ(nudge)と、能力を育むことを目的としたブースト( boosts)である。
これはXAIの影響を測定する方法の概要であり、最適な、安全で倫理的な人間とAIのコラボレーションのためにXAIを理解する利点を論じている。
- 参考スコア(独自算出の注目度): 0.456877715768796
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This article aims to provide a theoretical account and corresponding paradigm
for analysing how explainable artificial intelligence (XAI) influences people's
behaviour and cognition. It uses insights from research on behaviour change.
Two notable frameworks for thinking about behaviour change techniques are
nudges - aimed at influencing behaviour - and boosts - aimed at fostering
capability. It proposes that local and concept-based explanations are more
adjacent to nudges, while global and counterfactual explanations are more
adjacent to boosts. It outlines a method for measuring XAI influence and argues
for the benefits of understanding it for optimal, safe and ethical human-AI
collaboration.
- Abstract(参考訳): 本稿では、説明可能な人工知能(XAI)が人々の行動や認知にどのように影響するかを分析するための理論的説明とそれに対応するパラダイムを提供することを目的とする。
行動変化の研究から得た洞察を利用する。
行動変化のテクニックを考えるための2つの注目すべきフレームワークは、行動に影響を与えることを目的としたナッジ(nudge)と、能力向上を目的としたブースト( boosts)である。
局所的および概念に基づく説明はナッジに隣接しているのに対し、グローバルおよび対実的な説明はブーストに隣接している。
これはXAIの影響を測定する方法の概要であり、最適な、安全で倫理的な人間とAIのコラボレーションのためにXAIを理解する利点を論じている。
関連論文リスト
- Bayesian Reinforcement Learning with Limited Cognitive Load [43.19983737333797]
適応行動の理論は、エージェントの学習履歴、決定、容量制約の間の複雑な相互作用を考慮に入れなければならない。
コンピュータ科学における最近の研究は、強化学習、ベイズ的意思決定、レート歪曲理論からアイデアをブリッジすることで、これらの力学を形作る原理を明確にし始めている。
論文 参考訳(メタデータ) (2023-05-05T03:29:34Z) - Impact Of Explainable AI On Cognitive Load: Insights From An Empirical
Study [0.0]
本研究は、新型コロナウイルスのユースケースを用いて、実装に依存しないXAI説明型の認知負荷、タスクパフォーマンス、タスク時間を測定する。
これらの説明型は, エンドユーザの認知負荷, タスクパフォーマンス, タスク時間に強く影響を及ぼすことがわかった。
論文 参考訳(メタデータ) (2023-04-18T09:52:09Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Adaptive cognitive fit: Artificial intelligence augmented management of
information facets and representations [62.997667081978825]
ビッグデータ技術と人工知能(AI)応用の爆発的な成長は、情報ファセットの普及に繋がった。
等角性や正確性などの情報フェートは、情報に対する人間の認識を支配的かつ著しく左右する。
認知の限界を克服するために情報表現を適応できる人工知能技術が必要であることを示唆する。
論文 参考訳(メタデータ) (2022-04-25T02:47:25Z) - Towards a Shapley Value Graph Framework for Medical peer-influence [0.9449650062296824]
本稿では,機能間相互作用のグラフ表現を用いた説明を深く研究する新しい枠組みを提案する。
ブラックボックス機械学習(ML)モデルの解釈可能性を改善し、介入を通知することを目的としている。
論文 参考訳(メタデータ) (2021-12-29T16:24:50Z) - Active Inference in Robotics and Artificial Agents: Survey and
Challenges [51.29077770446286]
我々は、状態推定、制御、計画、学習のためのアクティブ推論の最先端理論と実装についてレビューする。
本稿では、適応性、一般化性、堅牢性の観点から、その可能性を示す関連する実験を紹介する。
論文 参考訳(メタデータ) (2021-12-03T12:10:26Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Cognitive Perspectives on Context-based Decisions and Explanations [0.0]
本稿では,xaiの文脈的重要性と有用性が,現在の新たな行動指向予測表現構造の波と重なり合うことを示す。
これは説明可能なAIに影響を及ぼし、人間の聴衆にコンピュータの意思決定の説明を提供することが目的です。
論文 参考訳(メタデータ) (2021-01-25T15:49:52Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。