論文の概要: Can AI Model the Complexities of Human Moral Decision-Making? A Qualitative Study of Kidney Allocation Decisions
- arxiv url: http://arxiv.org/abs/2503.00940v1
- Date: Sun, 02 Mar 2025 15:42:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:25:32.799099
- Title: Can AI Model the Complexities of Human Moral Decision-Making? A Qualitative Study of Kidney Allocation Decisions
- Title(参考訳): AIは人間の道徳的決定の複雑さをモデル化できるか?
- Authors: Vijay Keswani, Vincent Conitzer, Walter Sinnott-Armstrong, Breanna K. Nguyen, Hoda Heidari, Jana Schaich Borg,
- Abstract要約: 倫理的AIでは、単純な計算モデルを通じて人間の道徳的判断を捉えようとする動きが増えている。
参加者は腎臓の受注者についての判断の根拠を説明するため,20回のインタビューを行った。
参加者を観察する: (a) 患者の道徳的関連属性を異なる学位に価値づけする; (b) 意思決定の複雑さを減らすために様々な意思決定プロセスを使用する; (c) 意見を変える; (e) 腎臓の割り当て決定においてAIを補助するAIに対する熱意と関心を表現する。
- 参考スコア(独自算出の注目度): 31.11473190744529
- License:
- Abstract: A growing body of work in Ethical AI attempts to capture human moral judgments through simple computational models. The key question we address in this work is whether such simple AI models capture {the critical} nuances of moral decision-making by focusing on the use case of kidney allocation. We conducted twenty interviews where participants explained their rationale for their judgments about who should receive a kidney. We observe participants: (a) value patients' morally-relevant attributes to different degrees; (b) use diverse decision-making processes, citing heuristics to reduce decision complexity; (c) can change their opinions; (d) sometimes lack confidence in their decisions (e.g., due to incomplete information); and (e) express enthusiasm and concern regarding AI assisting humans in kidney allocation decisions. Based on these findings, we discuss challenges of computationally modeling moral judgments {as a stand-in for human input}, highlight drawbacks of current approaches, and suggest future directions to address these issues.
- Abstract(参考訳): 倫理的AIでは、単純な計算モデルを通じて人間の道徳的判断を捉えようとする動きが増えている。
この研究で私たちが直面している重要な疑問は、このような単純なAIモデルが腎臓アロケーションのユースケースに焦点を当てることで、道徳的な意思決定のニュアンスを捉えているかどうかである。
参加者は, 腎臓の受注者に対する判断の根拠を説明するため, 20回のインタビューを行った。
参加者を観察します。
a) 患者の道徳的関連属性を異なる程度に評価すること。
b) 意思決定の複雑さを低減するために、ヒューリスティックスを引用して、多様な意思決定プロセスを使用する。
(c)意見を変えることができる。
(d) 決定に自信がない場合(例えば、不完全な情報のため)、
(e)腎臓割当決定におけるヒトを支援するAIに対する熱意と関心を表現すること。
これらの知見に基づき、人間の入力のスタンドインとして道徳的判断を計算的にモデル化する上での課題について議論し、現在のアプローチの欠点を強調し、これらの問題に対処するための今後の方向性を提案する。
関連論文リスト
- From Text to Trust: Empowering AI-assisted Decision Making with Adaptive LLM-powered Analysis [20.49579297622137]
大規模言語モデル(LLM)は、例外的な会話機能と分析機能を持つ。
LLMは、AIの決定推奨に関する自然言語ベースの分析を提供する。
LLMによる各タスク特徴の逐次的または並行的な分析を行うことは、人々のAI支援意思決定性能を著しく向上させるものではないことを示す。
論文 参考訳(メタデータ) (2025-02-17T15:32:54Z) - Utilizing Human Behavior Modeling to Manipulate Explanations in AI-Assisted Decision Making: The Good, the Bad, and the Scary [19.884253335528317]
AIモデルの最近の進歩は、人間の意思決定プロセスへのAIベースの意思決定支援の統合を高めている。
AIによる意思決定の可能性を完全に解き放つために、研究者たちは、人間がAIレコメンデーションを最終決定にどのように組み込むかをコンピュータでモデル化した。
より適切にAIレコメンデーションに頼れるように、人間の意思決定者にAIの説明を提供することは、一般的な慣習となっている。
論文 参考訳(メタデータ) (2024-11-02T18:33:28Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Towards Human-AI Deliberation: Design and Evaluation of LLM-Empowered Deliberative AI for AI-Assisted Decision-Making [47.33241893184721]
AIによる意思決定において、人間はしばしばAIの提案を受動的にレビューし、それを受け入れるか拒否するかを決定する。
意思決定における人間-AIの意見の対立に関する議論と人間のリフレクションを促進する新しい枠組みであるHuman-AI Deliberationを提案する。
人間の熟考の理論に基づいて、この枠組みは人間とAIを次元レベルの意見の引用、熟考的議論、意思決定の更新に携わる。
論文 参考訳(メタデータ) (2024-03-25T14:34:06Z) - Decision Theoretic Foundations for Experiments Evaluating Human Decisions [18.27590643693167]
我々は、人間のパフォーマンスの損失をバイアスの形で評価するためには、合理的なエージェントが実用性を最大化する決定を識別する必要があるという情報を参加者に提供する必要があると論じる。
実演として,AIによる意思決定に関する文献からの意思決定の評価が,これらの基準をどの程度達成したかを評価する。
論文 参考訳(メタデータ) (2024-01-25T16:21:37Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Indecision Modeling [50.00689136829134]
AIシステムは人間の価値観に合わせて行動することが重要である。
人々はしばしば決定的ではなく、特に彼らの決定が道徳的な意味を持つときです。
論文 参考訳(メタデータ) (2020-12-15T18:32:37Z) - Artificial Artificial Intelligence: Measuring Influence of AI
'Assessments' on Moral Decision-Making [48.66982301902923]
ドナー腎アロケーションに関する道徳的意思決定に対する疑似AIからのフィードバックの効果を検討した。
患者が腎臓を受容器するかどうかの判断は、AIによって与えられると認識される参加者自身の意思決定に関するフィードバックに影響される可能性があるという証拠がいくつか見出された。
論文 参考訳(メタデータ) (2020-01-13T14:15:18Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。