論文の概要: Information That Matters: Exploring Information Needs of People Affected by Algorithmic Decisions
- arxiv url: http://arxiv.org/abs/2401.13324v5
- Date: Tue, 17 Sep 2024 08:08:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-18 22:41:00.726712
- Title: Information That Matters: Exploring Information Needs of People Affected by Algorithmic Decisions
- Title(参考訳): 問題となる情報:アルゴリズムによる決定に影響を及ぼす人々の情報ニーズを探る
- Authors: Timothée Schmude, Laura Koesten, Torsten Möller, Sebastian Tschiatschek,
- Abstract要約: XAInovice Question Bankは、AI初心者に必要な情報カタログを含むXAI Question Bankの拡張である。
「XAInovice Question Bank」には、雇用予測と健康モニタリングの2つのユースケースにおいて、AI初心者に必要な情報のカタログが含まれている。
我々の研究は、情報ニーズ、目標、課題を強調することで、説明可能性へのAI初心者の関与を支援することを目的としています。
- 参考スコア(独自算出の注目度): 11.421963387588864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Every AI system that makes decisions about people has a group of stakeholders that are personally affected by these decisions. However, explanations of AI systems rarely address the information needs of this stakeholder group, who often are AI novices. This creates a gap between conveyed information and information that matters to those who are impacted by the system's decisions, such as domain experts and decision subjects. To address this, we present the "XAI Novice Question Bank," an extension of the XAI Question Bank containing a catalog of information needs from AI novices in two use cases: employment prediction and health monitoring. The catalog covers the categories of data, system context, system usage, and system specifications. We gathered information needs through task-based interviews where participants asked questions about two AI systems to decide on their adoption and received verbal explanations in response. Our analysis showed that participants' confidence increased after receiving explanations but that their understanding faced challenges. These included difficulties in locating information and in assessing their own understanding, as well as attempts to outsource understanding. Additionally, participants' prior perceptions of the systems' risks and benefits influenced their information needs. Participants who perceived high risks sought explanations about the intentions behind a system's deployment, while those who perceived low risks rather asked about the system's operation. Our work aims to support the inclusion of AI novices in explainability efforts by highlighting their information needs, aims, and challenges. We summarize our findings as five key implications that can inform the design of future explanations for lay stakeholder audiences.
- Abstract(参考訳): 人に関する意思決定を行うすべてのAIシステムは、これらの決定に個人的に影響を受ける利害関係者のグループを持っています。
しかし、AIシステムの説明は、しばしばAI初心者であるこの利害関係者グループの情報ニーズにほとんど対処しない。
これにより、伝達された情報と、ドメインの専門家や意思決定の主題など、システムの決定に影響された人々にとって重要な情報の間にギャップが生じます。
そこで本研究では,AI初心者からの情報ニーズのカタログを含むXAI質問銀行を,雇用予測と健康モニタリングの2つのユースケースで拡張した「XAI質問銀行」について紹介する。
このカタログは、データ、システムコンテキスト、システム利用、システム仕様のカテゴリをカバーしている。
参加者は2つのAIシステムについて質問を行い、その採用を判断し、それに応じて口頭で説明を受けた。
分析の結果、参加者は説明を受けた後に自信が増すが、理解が課題に直面していることが判明した。
これには、情報を見つけることや、自身の理解を評価することの難しさや、理解をアウトソースしようとする試みが含まれていた。
さらに、システムのリスクとメリットに対する参加者の事前の認識は、彼らの情報ニーズに影響を与えました。
リスクが高いと感じた参加者は、システムのデプロイメントの背後にある意図についての説明を求めたが、リスクが少ないと感じた参加者はむしろシステムの運用について質問した。
我々の研究は、情報ニーズ、目標、課題を強調することによって、説明可能性へのAI初心者の関与を支援することを目的としています。
本研究は,本研究の成果を,主観者に対する今後の説明設計に影響を及ぼす5つの重要な意味をまとめたものである。
関連論文リスト
- Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Sociotechnical Implications of Generative Artificial Intelligence for Information Access [4.3867169221012645]
生成AI技術は、情報にアクセスし、既存の情報検索システムの有効性を改善する新しい方法を可能にする。
本稿では、情報アクセスの文脈において、生成AIを採用する際のシステム的結果とリスクについて概説する。
論文 参考訳(メタデータ) (2024-05-19T17:04:39Z) - Notion of Explainable Artificial Intelligence -- An Empirical
Investigation from A Users Perspective [0.3069335774032178]
本研究は、ユーザ中心の説明可能なAIを調査し、研究コンテキストとしてレコメンデーションシステムを検討することを目的とする。
我々は,推薦システムに関する質的データを収集するために,フォーカスグループインタビューを行った。
以上の結果から,エンドユーザーはオンデマンドの補足情報による非技術的かつ適切な説明を望んでいることが明らかとなった。
論文 参考訳(メタデータ) (2023-11-01T22:20:14Z) - ChoiceMates: Supporting Unfamiliar Online Decision-Making with
Multi-Agent Conversational Interactions [58.71970923420007]
提案するChoiceMatesは,LLMエージェントの動的セットとの対話を可能にするシステムである。
エージェントは、意見のあるペルソナとして、柔軟に会話に参加し、応答を提供するだけでなく、各エージェントの好みを引き出すために互いに会話する。
ChoiceMatesを従来のWeb検索とシングルエージェントと比較した結果,ChoiceMatesはより信頼性の高いWebと比較して,発見,潜水,情報管理に有用であることが判明した。
論文 参考訳(メタデータ) (2023-10-02T16:49:39Z) - Requirements for Explainability and Acceptance of Artificial
Intelligence in Collaborative Work [0.0]
本稿では,AIの説明可能性と受容の要件について考察する。
その結果,2つの主要なグループが,モデルの内部操作に関する情報を必要とする開発者であることが示唆された。
AIシステムの受容は、システムの機能や性能、プライバシ、倫理的考慮事項に関する情報に依存する。
論文 参考訳(メタデータ) (2023-06-27T11:36:07Z) - Video Surveillance System Incorporating Expert Decision-making Process:
A Case Study on Detecting Calving Signs in Cattle [5.80793470875286]
本研究では、専門家の意思決定プロセスと、通知対象の豊富なドメイン知識を組み込むことにより、予測の背後にある推論を提示するビデオ監視AIシステムの枠組みについて検討する。
本研究は,畜産従事者とのユーザスタディを通じて,提案手法に基づく牛の養殖の兆候を検出するシステムを構築し,そのシステムの評価を行った。
論文 参考訳(メタデータ) (2023-01-10T12:06:49Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - "There Is Not Enough Information": On the Effects of Explanations on
Perceptions of Informational Fairness and Trustworthiness in Automated
Decision-Making [0.0]
自動意思決定システム(ADS)は、連続的な意思決定にますます利用されている。
我々は,情報の公平さに対する人々の認識を評価するために,人間による研究を行う。
定性的フィードバックの包括的分析は、説明のために人々のデシラタに光を当てる。
論文 参考訳(メタデータ) (2022-05-11T20:06:03Z) - Adaptive cognitive fit: Artificial intelligence augmented management of
information facets and representations [62.997667081978825]
ビッグデータ技術と人工知能(AI)応用の爆発的な成長は、情報ファセットの普及に繋がった。
等角性や正確性などの情報フェートは、情報に対する人間の認識を支配的かつ著しく左右する。
認知の限界を克服するために情報表現を適応できる人工知能技術が必要であることを示唆する。
論文 参考訳(メタデータ) (2022-04-25T02:47:25Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。