論文の概要: Human-centered Explainable AI: Towards a Reflective Sociotechnical
Approach
- arxiv url: http://arxiv.org/abs/2002.01092v2
- Date: Wed, 5 Feb 2020 05:33:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 03:27:06.044068
- Title: Human-centered Explainable AI: Towards a Reflective Sociotechnical
Approach
- Title(参考訳): 人間中心の説明可能なAI:リフレクティブ・ソシオ技術的アプローチに向けて
- Authors: Upol Ehsan and Mark O. Riedl
- Abstract要約: 我々は、人間を技術設計の中心に置くアプローチとして、人間中心の説明可能なAI(HCXAI)を紹介します。
それは、価値の相互作用、対人的ダイナミクス、そしてAIシステムの社会的に位置する性質を考慮し、人間の「誰」が誰であるかを包括的に理解する。
- 参考スコア(独自算出の注目度): 18.14698948294366
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explanations--a form of post-hoc interpretability--play an instrumental role
in making systems accessible as AI continues to proliferate complex and
sensitive sociotechnical systems. In this paper, we introduce Human-centered
Explainable AI (HCXAI) as an approach that puts the human at the center of
technology design. It develops a holistic understanding of "who" the human is
by considering the interplay of values, interpersonal dynamics, and the
socially situated nature of AI systems. In particular, we advocate for a
reflective sociotechnical approach. We illustrate HCXAI through a case study of
an explanation system for non-technical end-users that shows how technical
advancements and the understanding of human factors co-evolve. Building on the
case study, we lay out open research questions pertaining to further refining
our understanding of "who" the human is and extending beyond 1-to-1
human-computer interactions. Finally, we propose that a reflective HCXAI
paradigm-mediated through the perspective of Critical Technical Practice and
supplemented with strategies from HCI, such as value-sensitive design and
participatory design--not only helps us understand our intellectual blind
spots, but it can also open up new design and research spaces.
- Abstract(参考訳): 説明-ポストホックの解釈可能性の一形態-AIが複雑で敏感な社会技術システムを拡大し続け、システムにアクセスできるようにするための道具的役割を果たす。
本稿では,人間を技術設計の中心に据えるアプローチとして,Human-centered Explainable AI(HCXAI)を紹介する。
それは、価値の相互作用、対人的ダイナミクス、そしてAIシステムの社会的に位置する性質を考慮し、人間の「誰」が誰であるかを包括的に理解する。
特に、我々は社会学的アプローチの反映を提唱する。
HCXAIは、技術的進歩と人的要因の理解が共進化していることを示す非技術者のための説明システムである。
このケーススタディに基づいて,人間の「誰」の理解をさらに深め,人間とコンピュータの相互作用の1対1を超えて拡張する,オープンリサーチの質問を提示する。
最後に,HCXAIパラダイムをクリティカル・テクニカル・プラクティスの観点で実践し,価値に敏感なデザインや参加型デザインといったHCIの戦略を補完することで,知的盲点を理解するだけでなく,新たなデザインや研究空間を開放することも提案する。
関連論文リスト
- Advancing Explainable AI Toward Human-Like Intelligence: Forging the
Path to Artificial Brain [0.7770029179741429]
説明可能なAI(XAI)における人工知能(AI)と神経科学の交差は、複雑な意思決定プロセスにおける透明性と解釈可能性を高めるために重要である。
本稿では,機能ベースから人間中心のアプローチまで,XAI方法論の進化について考察する。
生成モデルにおける説明可能性の達成、責任あるAIプラクティスの確保、倫理的意味への対処に関する課題について論じる。
論文 参考訳(メタデータ) (2024-02-07T14:09:11Z) - On the Emergence of Symmetrical Reality [51.21203247240322]
物理仮想アマルガメーションの様々な形態を包含した統一表現を提供する対称現実感フレームワークを導入する。
我々は、対称現実の潜在的な応用を示すAI駆動型アクティブアシストサービスの例を提案する。
論文 参考訳(メタデータ) (2024-01-26T16:09:39Z) - Social AI and the Challenges of the Human-AI Ecosystem [60.26761762025781]
社会AIにおける主要なオープンな質問について論じ、技術的および科学的課題を概説する。
我々は,複雑システム,ネットワーク科学,AIの交差点にソーシャルAIの基礎を構築することを提案する。
論文 参考訳(メタデータ) (2023-06-23T18:10:54Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - On some Foundational Aspects of Human-Centered Artificial Intelligence [52.03866242565846]
人間中心人工知能(Human Centered Artificial Intelligence)の意味については明確な定義はない。
本稿では,AIコンポーネントを備えた物理・ソフトウェア計算エージェントを指すHCAIエージェントについて紹介する。
HCAIエージェントの概念は、そのコンポーネントや機能とともに、人間中心のAIに関する技術的および非技術的議論を橋渡しする手段であると考えています。
論文 参考訳(メタデータ) (2021-12-29T09:58:59Z) - Human-Centered Explainable AI (XAI): From Algorithms to User Experiences [29.10123472973571]
説明可能なAI(XAI)は近年,膨大なアルゴリズムコレクションを生み出している。
分野は学際的視点と人間中心のアプローチを受け入れ始めている。
論文 参考訳(メタデータ) (2021-10-20T21:33:46Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Thinking Fast and Slow in AI [38.8581204791644]
本稿では,人間の意思決定の認知理論からインスピレーションを得たAI研究の方向性を提案する。
前提は、AIでまだ不足しているいくつかの人間の能力の原因について洞察を得ることができれば、AIシステムで同様の能力を得ることができるということです。
論文 参考訳(メタデータ) (2020-10-12T20:10:05Z) - Human Evaluation of Interpretability: The Case of AI-Generated Music
Knowledge [19.508678969335882]
我々は、芸術と人文科学におけるAIが発見する知識/ルールを評価することに注力する。
本稿では,洗練された記号的/数値的対象として表現されたAI生成音楽理論/ルールの人間生成言語解釈を収集し,評価する実験手法を提案する。
論文 参考訳(メタデータ) (2020-04-15T06:03:34Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。