論文の概要: "A cold, technical decision-maker": Can AI provide explainability,
negotiability, and humanity?
- arxiv url: http://arxiv.org/abs/2012.00874v1
- Date: Tue, 1 Dec 2020 22:36:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-22 11:49:41.339324
- Title: "A cold, technical decision-maker": Can AI provide explainability,
negotiability, and humanity?
- Title(参考訳): 「冷たく技術的な意思決定者」:AIは説明可能性、交渉可能性、人間性を提供できるか?
- Authors: Allison Woodruff and Yasmin Asare Anderson and Katherine Jameson
Armstrong and Marina Gkiza and Jay Jennings and Christopher Moessner and
Fernanda Viegas and Martin Wattenberg and and Lynette Webb and Fabian Wrede
and Patrick Gage Kelley
- Abstract要約: 参加者60名からなる5つのワークショップからなるアルゴリズム決定の質的研究の結果を報告する。
意思決定における参加者の人間性に関する考察を議論し,「交渉可能性」という概念を導入する。
- 参考スコア(独自算出の注目度): 47.36687555570123
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Algorithmic systems are increasingly deployed to make decisions in many areas
of people's lives. The shift from human to algorithmic decision-making has been
accompanied by concern about potentially opaque decisions that are not aligned
with social values, as well as proposed remedies such as explainability. We
present results of a qualitative study of algorithmic decision-making,
comprised of five workshops conducted with a total of 60 participants in
Finland, Germany, the United Kingdom, and the United States. We invited
participants to reason about decision-making qualities such as explainability
and accuracy in a variety of domains. Participants viewed AI as a
decision-maker that follows rigid criteria and performs mechanical tasks well,
but is largely incapable of subjective or morally complex judgments. We discuss
participants' consideration of humanity in decision-making, and introduce the
concept of 'negotiability,' the ability to go beyond formal criteria and work
flexibly around the system.
- Abstract(参考訳): アルゴリズムシステムは、人々の生活の多くの領域で意思決定を行うために、ますます展開される。
人間からアルゴリズムによる意思決定への移行は、社会的価値観と一致しない潜在的不透明な決定や、説明可能性などの修正案への懸念が伴っている。
本研究は,フィンランド,ドイツ,イギリス,米国において,計60名の参加者からなる5つのワークショップからなる,アルゴリズム的意思決定に関する質的研究の結果を示す。
様々な領域における説明可能性や正確性など,意思決定の質を判断するために参加者を招待した。
参加者はAIを厳格な基準に従う意思決定者とみなし、機械的なタスクをうまく遂行するが、主観的または道徳的に複雑な判断がほとんどできない。
意思決定における人間性についての参加者の考察を議論し,「交渉可能性」という概念と,形式的基準を超えて柔軟に働く能力について紹介する。
関連論文リスト
- Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Towards Human-AI Deliberation: Design and Evaluation of LLM-Empowered Deliberative AI for AI-Assisted Decision-Making [47.33241893184721]
AIによる意思決定において、人間はしばしばAIの提案を受動的にレビューし、それを受け入れるか拒否するかを決定する。
意思決定における人間-AIの意見の対立に関する議論と人間のリフレクションを促進する新しい枠組みであるHuman-AI Deliberationを提案する。
人間の熟考の理論に基づいて、この枠組みは人間とAIを次元レベルの意見の引用、熟考的議論、意思決定の更新に携わる。
論文 参考訳(メタデータ) (2024-03-25T14:34:06Z) - Decision Theoretic Foundations for Experiments Evaluating Human Decisions [18.27590643693167]
我々は、人間のパフォーマンスの損失をバイアスの形で評価するためには、合理的なエージェントが実用性を最大化する決定を識別する必要があるという情報を参加者に提供する必要があると論じる。
実演として,AIによる意思決定に関する文献からの意思決定の評価が,これらの基準をどの程度達成したかを評価する。
論文 参考訳(メタデータ) (2024-01-25T16:21:37Z) - Explaining by Imitating: Understanding Decisions by Interpretable Policy
Learning [72.80902932543474]
観察されたデータから人間の行動を理解することは、意思決定における透明性と説明責任にとって重要である。
意思決定者の方針をモデル化することが困難である医療などの現実的な設定を考えてみましょう。
本稿では, 設計による透明性の向上, 部分観測可能性の確保, 完全にオフラインで動作可能なデータ駆動型意思決定行動の表現を提案する。
論文 参考訳(メタデータ) (2023-10-28T13:06:14Z) - AI Reliance and Decision Quality: Fundamentals, Interdependence, and the Effects of Interventions [6.356355538824237]
私たちは、AIによる意思決定に関する現在の文献で、信頼と意思決定品質が不適切に混ざり合っていると論じています。
我々の研究は、AIによる意思決定における信頼行動と意思決定品質の区別の重要性を強調している。
論文 参考訳(メタデータ) (2023-04-18T08:08:05Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - A Human-Centric Perspective on Fairness and Transparency in Algorithmic
Decision-Making [0.0]
自動意思決定システム(ADS)は、連続的な意思決定にますます利用されている。
非透明なシステムは、健全性の評価と校正が難しいため、不公平な結果をもたらす傾向にある。
私は博士論文を通じて以下の3つの主要な貢献をしたいと考えています。
論文 参考訳(メタデータ) (2022-04-29T18:31:04Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Conceptualising Contestability: Perspectives on Contesting Algorithmic
Decisions [18.155121103400333]
オーストラリアが提案するAI倫理枠組みに反応して提出を行った人々や組織の視点を記述し分析する。」
以上の結果から, 競争性の性質は議論されているものの, 個人を保護する方法と見なされ, 人間の意思決定と競合性に類似していることが判明した。
論文 参考訳(メタデータ) (2021-02-23T05:13:18Z) - Contestable Black Boxes [10.552465253379134]
本稿では,アルゴリズムブラックボックスが関与する際の競合プロセスに必要な保証の種類について検討する。
本論では, 自動意思決定を評価するための補完的手法を考案した。
論文 参考訳(メタデータ) (2020-06-09T09:09:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。