論文の概要: Characterizing Human Explanation Strategies to Inform the Design of
Explainable AI for Building Damage Assessment
- arxiv url: http://arxiv.org/abs/2111.02626v1
- Date: Thu, 4 Nov 2021 04:53:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-06 00:11:16.812597
- Title: Characterizing Human Explanation Strategies to Inform the Design of
Explainable AI for Building Damage Assessment
- Title(参考訳): 建築被害評価のための説明可能なAIの設計をインフォームするヒューマン説明手法の特徴付け
- Authors: Donghoon Shin, Sachin Grover, Kenneth Holstein, Adam Perer
- Abstract要約: 説明可能なAI(XAI)は、高度な視覚的検出タスクのための人間とAIのコラボレーションをサポートするための有望な手段である。
衛星画像に基づく建物被害の深刻度を評価する際に, 利用者の自己評価の方法を理解するために, クラウドソーシングによるオンライン調査を行った。
60人のクラウドワーカーによる調査を通じて、人間の視覚的損傷評価を説明するために活用される6つの主要な戦略を明らかにした。
- 参考スコア(独自算出の注目度): 10.447869130396624
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable AI (XAI) is a promising means of supporting human-AI
collaborations for high-stakes visual detection tasks, such as damage detection
tasks from satellite imageries, as fully-automated approaches are unlikely to
be perfectly safe and reliable. However, most existing XAI techniques are not
informed by the understandings of task-specific needs of humans for
explanations. Thus, we took a first step toward understanding what forms of XAI
humans require in damage detection tasks. We conducted an online crowdsourced
study to understand how people explain their own assessments, when evaluating
the severity of building damage based on satellite imagery. Through the study
with 60 crowdworkers, we surfaced six major strategies that humans utilize to
explain their visual damage assessments. We present implications of our
findings for the design of XAI methods for such visual detection contexts, and
discuss opportunities for future research.
- Abstract(参考訳): 説明可能なAI(XAI)は、衛星画像からの損傷検出タスクなど、高精度な視覚検出タスクのための人間とAIのコラボレーションをサポートする有望な手段である。
しかし、既存のxai技術の多くは、説明のために人間のタスク固有のニーズを理解していない。
そこで我々は,損傷検出タスクにおいてXAI人間がどのような形で必要とするかを理解するための第一歩を踏み出した。
衛星画像による建物損傷の重大度評価において,利用者の自己評価の仕方を理解するため,クラウドソーシングによる研究を行った。
60人のクラウドワーカーによる調査を通じて、人間の視覚的損傷評価を説明する6つの主要な戦略が明らかになった。
本稿では,このような視覚的検出コンテキストのためのXAI手法の設計における本研究の意義と今後の研究の機会について論じる。
関連論文リスト
- The Impact of Imperfect XAI on Human-AI Decision-Making [7.29807482760841]
鳥種識別作業において,誤った説明が人間の意思決定行動にどのように影響するかを評価する。
この結果から,AIと人間-AIチームパフォーマンスへの不完全なXAIと,人間の専門知識レベルの影響が明らかになった。
論文 参考訳(メタデータ) (2023-07-25T15:19:36Z) - Overcoming Adversarial Attacks for Human-in-the-Loop Applications [0.8349536925228057]
人間の分析を含めると、ディープニューラルネットワークの堅牢性に肯定的な影響を与える可能性がある。
ニューラルネットワークの視覚的説明地図は、敵の攻撃に弱いことが示されている。
我々の課題は、HITL評価がこの敵対的な状況でいかに堅牢になるかである。
論文 参考訳(メタデータ) (2023-06-09T15:09:16Z) - Adversarial attacks and defenses in explainable artificial intelligence:
A survey [11.541601343587917]
敵機械学習(AdvML)の最近の進歩は、最先端の説明手法の限界と脆弱性を強調している。
本調査は、機械学習モデルの説明に対する敵攻撃に関する総合的な研究の概要を提供する。
論文 参考訳(メタデータ) (2023-06-06T09:53:39Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - On some Foundational Aspects of Human-Centered Artificial Intelligence [52.03866242565846]
人間中心人工知能(Human Centered Artificial Intelligence)の意味については明確な定義はない。
本稿では,AIコンポーネントを備えた物理・ソフトウェア計算エージェントを指すHCAIエージェントについて紹介する。
HCAIエージェントの概念は、そのコンポーネントや機能とともに、人間中心のAIに関する技術的および非技術的議論を橋渡しする手段であると考えています。
論文 参考訳(メタデータ) (2021-12-29T09:58:59Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Opportunities and Challenges in Explainable Artificial Intelligence
(XAI): A Survey [2.7086321720578623]
深層ニューラルネットワークのブラックボックスの性質は、ミッションクリティカルなアプリケーションでの利用に挑戦する。
XAIは、AI決定に関する高品質な解釈可能、直感的、人間に理解可能な説明を生成するためのツール、テクニック、アルゴリズムのセットを推進している。
論文 参考訳(メタデータ) (2020-06-16T02:58:10Z) - Human-centered Explainable AI: Towards a Reflective Sociotechnical
Approach [18.14698948294366]
我々は、人間を技術設計の中心に置くアプローチとして、人間中心の説明可能なAI(HCXAI)を紹介します。
それは、価値の相互作用、対人的ダイナミクス、そしてAIシステムの社会的に位置する性質を考慮し、人間の「誰」が誰であるかを包括的に理解する。
論文 参考訳(メタデータ) (2020-02-04T02:30:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。