論文の概要: Characterizing Human Explanation Strategies to Inform the Design of
Explainable AI for Building Damage Assessment
- arxiv url: http://arxiv.org/abs/2111.02626v1
- Date: Thu, 4 Nov 2021 04:53:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-06 00:11:16.812597
- Title: Characterizing Human Explanation Strategies to Inform the Design of
Explainable AI for Building Damage Assessment
- Title(参考訳): 建築被害評価のための説明可能なAIの設計をインフォームするヒューマン説明手法の特徴付け
- Authors: Donghoon Shin, Sachin Grover, Kenneth Holstein, Adam Perer
- Abstract要約: 説明可能なAI(XAI)は、高度な視覚的検出タスクのための人間とAIのコラボレーションをサポートするための有望な手段である。
衛星画像に基づく建物被害の深刻度を評価する際に, 利用者の自己評価の方法を理解するために, クラウドソーシングによるオンライン調査を行った。
60人のクラウドワーカーによる調査を通じて、人間の視覚的損傷評価を説明するために活用される6つの主要な戦略を明らかにした。
- 参考スコア(独自算出の注目度): 10.447869130396624
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable AI (XAI) is a promising means of supporting human-AI
collaborations for high-stakes visual detection tasks, such as damage detection
tasks from satellite imageries, as fully-automated approaches are unlikely to
be perfectly safe and reliable. However, most existing XAI techniques are not
informed by the understandings of task-specific needs of humans for
explanations. Thus, we took a first step toward understanding what forms of XAI
humans require in damage detection tasks. We conducted an online crowdsourced
study to understand how people explain their own assessments, when evaluating
the severity of building damage based on satellite imagery. Through the study
with 60 crowdworkers, we surfaced six major strategies that humans utilize to
explain their visual damage assessments. We present implications of our
findings for the design of XAI methods for such visual detection contexts, and
discuss opportunities for future research.
- Abstract(参考訳): 説明可能なAI(XAI)は、衛星画像からの損傷検出タスクなど、高精度な視覚検出タスクのための人間とAIのコラボレーションをサポートする有望な手段である。
しかし、既存のxai技術の多くは、説明のために人間のタスク固有のニーズを理解していない。
そこで我々は,損傷検出タスクにおいてXAI人間がどのような形で必要とするかを理解するための第一歩を踏み出した。
衛星画像による建物損傷の重大度評価において,利用者の自己評価の仕方を理解するため,クラウドソーシングによる研究を行った。
60人のクラウドワーカーによる調査を通じて、人間の視覚的損傷評価を説明する6つの主要な戦略が明らかになった。
本稿では,このような視覚的検出コンテキストのためのXAI手法の設計における本研究の意義と今後の研究の機会について論じる。
関連論文リスト
- Unexploited Information Value in Human-AI Collaboration [23.353778024330165]
ヒューマンAIチームのパフォーマンスを改善する方法は、各エージェントがどのような情報や戦略を採用しているかを知らなければ、しばしば明確ではない。
本稿では,人間とAIの協調関係を分析するための統計的決定理論に基づくモデルを提案する。
論文 参考訳(メタデータ) (2024-11-03T01:34:45Z) - Don't be Fooled: The Misinformation Effect of Explanations in Human-AI Collaboration [11.824688232910193]
我々は,人間がXAIに支えられたAIによる意思決定について研究している。
その結果,誤った説明が正しいAIアドバイスに付随する場合に誤報が生じることがわかった。
この効果は、人間が欠陥のある推論戦略を推測し、タスクの実行を妨げ、手続き的知識の障害を示す。
論文 参考訳(メタデータ) (2024-09-19T14:34:20Z) - Detecting AI-Generated Text: Factors Influencing Detectability with Current Methods [13.14749943120523]
テキストが人工知能(AI)によって作成されたかどうかを知ることは、その信頼性を決定する上で重要である。
AIGT検出に対する最先端のアプローチには、透かし、統計学的およびスタイリスティック分析、機械学習分類などがある。
AIGTテキストがどのようなシナリオで「検出可能」であるかを判断するために、結合する健全な要因についての洞察を提供することを目指している。
論文 参考訳(メタデータ) (2024-06-21T18:31:49Z) - How Human-Centered Explainable AI Interface Are Designed and Evaluated: A Systematic Survey [48.97104365617498]
Em Explainable Interfaces (EIs) の登場する領域は,XAI のユーザインターフェースとユーザエクスペリエンス設計に重点を置いている。
本稿では,人間とXAIの相互作用の現在の動向と,EI設計・開発に向けた将来的な方向性を明らかにするために,53の出版物を体系的に調査する。
論文 参考訳(メタデータ) (2024-03-21T15:44:56Z) - Overcoming Adversarial Attacks for Human-in-the-Loop Applications [0.8349536925228057]
人間の分析を含めると、ディープニューラルネットワークの堅牢性に肯定的な影響を与える可能性がある。
ニューラルネットワークの視覚的説明地図は、敵の攻撃に弱いことが示されている。
我々の課題は、HITL評価がこの敵対的な状況でいかに堅牢になるかである。
論文 参考訳(メタデータ) (2023-06-09T15:09:16Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - On some Foundational Aspects of Human-Centered Artificial Intelligence [52.03866242565846]
人間中心人工知能(Human Centered Artificial Intelligence)の意味については明確な定義はない。
本稿では,AIコンポーネントを備えた物理・ソフトウェア計算エージェントを指すHCAIエージェントについて紹介する。
HCAIエージェントの概念は、そのコンポーネントや機能とともに、人間中心のAIに関する技術的および非技術的議論を橋渡しする手段であると考えています。
論文 参考訳(メタデータ) (2021-12-29T09:58:59Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Opportunities and Challenges in Explainable Artificial Intelligence
(XAI): A Survey [2.7086321720578623]
深層ニューラルネットワークのブラックボックスの性質は、ミッションクリティカルなアプリケーションでの利用に挑戦する。
XAIは、AI決定に関する高品質な解釈可能、直感的、人間に理解可能な説明を生成するためのツール、テクニック、アルゴリズムのセットを推進している。
論文 参考訳(メタデータ) (2020-06-16T02:58:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。