論文の概要: On The Stability of Moral Preferences: A Problem with Computational Elicitation Methods
- arxiv url: http://arxiv.org/abs/2408.02862v1
- Date: Mon, 5 Aug 2024 23:20:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-07 15:19:13.682498
- Title: On The Stability of Moral Preferences: A Problem with Computational Elicitation Methods
- Title(参考訳): 道徳的選好の安定性について:計算的解法による問題
- Authors: Kyle Boerstler, Vijay Keswani, Lok Chan, Jana Schaich Borg, Vincent Conitzer, Hoda Heidari, Walter Sinnott-Armstrong,
- Abstract要約: 参加者の真の道徳的嗜好が変化したり、一時的な気分や気まぐれを伴ったり、追跡しない環境要因の影響を受けている可能性がある。
同じ調査参加者に対して,2週間に10回の異なるセッションで1回のみ10回実施した場合に,どの患者に腎臓を投与すべきかという道徳的な質問を行った。
参加者が単純(研究1)と複雑(研究2)の繰り返しシナリオに対して異なる反応を示す頻度を測定した。平均的に、参加者の反応を議論のあるシナリオに変更した回数は、研究全体で約10~18%であり、この不安定性は観察されている。
- 参考スコア(独自算出の注目度): 29.95204917619388
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Preference elicitation frameworks feature heavily in the research on participatory ethical AI tools and provide a viable mechanism to enquire and incorporate the moral values of various stakeholders. As part of the elicitation process, surveys about moral preferences, opinions, and judgments are typically administered only once to each participant. This methodological practice is reasonable if participants' responses are stable over time such that, all other relevant factors being held constant, their responses today will be the same as their responses to the same questions at a later time. However, we do not know how often that is the case. It is possible that participants' true moral preferences change, are subject to temporary moods or whims, or are influenced by environmental factors we don't track. If participants' moral responses are unstable in such ways, it would raise important methodological and theoretical issues for how participants' true moral preferences, opinions, and judgments can be ascertained. We address this possibility here by asking the same survey participants the same moral questions about which patient should receive a kidney when only one is available ten times in ten different sessions over two weeks, varying only presentation order across sessions. We measured how often participants gave different responses to simple (Study One) and more complicated (Study Two) repeated scenarios. On average, the fraction of times participants changed their responses to controversial scenarios was around 10-18% across studies, and this instability is observed to have positive associations with response time and decision-making difficulty. We discuss the implications of these results for the efficacy of moral preference elicitation, highlighting the role of response instability in causing value misalignment between stakeholders and AI tools trained on their moral judgments.
- Abstract(参考訳): 優先勧誘フレームワークは、参加型倫理的AIツールの研究に大きく貢献し、様々な利害関係者の道徳的価値を探求し、取り入れるための実行可能なメカニズムを提供する。
勧誘プロセスの一環として、道徳的嗜好、意見、判断に関する調査は通常、各参加者に対して1回だけ実施される。
この方法論の実践は、参加者の反応が時間とともに安定していて、他のすべての関連要因が一定に保たれている場合、今日の反応は、後で同じ質問に対する回答と同じものになる。
しかし、その頻度は分からない。
参加者の真の道徳的嗜好が変化したり、一時的な気分や気まぐれを伴ったり、追跡しない環境要因の影響を受けている可能性がある。
このような場合、参加者の道徳的反応が不安定であれば、参加者の真の道徳的嗜好、意見、判断がどう確かめられるかに関して、重要な方法論的・理論的問題を引き起こすことになる。
ここでは,2週間に10回の異なるセッションで1回のみ10回投与した場合に,どの患者に腎臓を投与すべきかという,同じ道徳的な質問を参加者に行うことで,この可能性に対処する。
参加者が単純(スタディ1)と複雑(スタディ2)を繰り返したシナリオに対して,反応の頻度を測定した。
平均して、参加者が議論の的になっているシナリオに回答した回数は、研究全体で約10-18%であり、この不安定性は反応時間と意思決定の難しさに肯定的な相関があることが観察された。
これらの結果が道徳的嗜好誘発の有効性に与える影響を考察し、利害関係者と彼らの道徳的判断を訓練したAIツールの間に価値の相違を引き起こす際の応答不安定性の役割を強調した。
関連論文リスト
- Can Model Uncertainty Function as a Proxy for Multiple-Choice Question Item Difficulty? [12.638577140117702]
我々は、質問に答える際の弱点と見なされるような、生成的な大規模モデルの側面を活用する。
本研究では、不確実性の2つの異なる指標と実際の学生の反応分布の相関について検討する。
論文 参考訳(メタデータ) (2024-07-07T10:48:04Z) - Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - Why not both? Complementing explanations with uncertainty, and the role
of self-confidence in Human-AI collaboration [12.47276164048813]
本研究では,不確実性評価とモデル説明がモデルに対するユーザの信頼,理解,信頼にどのように影響するかを明らかにするための実証的研究を行う。
また,合意と切り換え率に基づいて,後者が分析結果を歪める可能性についても論じる。
論文 参考訳(メタデータ) (2023-04-27T12:24:33Z) - When Respondents Don't Care Anymore: Identifying the Onset of Careless Responding [0.0]
本稿では,各参加者に対する不注意応答の開始を同定する新しい手法を提案する。
これは、不注意が現れる可能性のある複数の次元の複合的な測定に基づいている。
非常に柔軟で、機械学習に基づいており、その性能に関する統計的保証を提供する。
論文 参考訳(メタデータ) (2023-03-13T15:10:30Z) - ClarifyDelphi: Reinforced Clarification Questions with Defeasibility
Rewards for Social and Moral Situations [81.70195684646681]
本稿では,ClarifyDelphiという対話型システムについて紹介する。
我々は、潜在的な答えが道徳的判断の多様化に繋がる質問が最も有益であると仮定する。
私たちの研究は究極的には、道徳的認知の柔軟性を研究してきた認知科学の研究にインスピレーションを受けています。
論文 参考訳(メタデータ) (2022-12-20T16:33:09Z) - Homophily and Incentive Effects in Use of Algorithms [17.55279695774825]
本稿では,2つの要因がAIによる意思決定に与える影響を評価するために,クラウドソーシング・ヴィグネット研究を提案する。
まず、ホモフィリー(homophily)を検証します。
次に、インセンティブについて考えます -- ハイブリッドな意思決定環境に(既知の)コスト構造を組み込むには、どうすればよいのでしょう?
論文 参考訳(メタデータ) (2022-05-19T17:11:04Z) - The Impact of Algorithmic Risk Assessments on Human Predictions and its
Analysis via Crowdsourcing Studies [79.66833203975729]
我々は,在職者が将来の再起を予測することを任務とするヴィグネット研究を行う。
参加者は、再逮捕の確率が50%よりかなり低いと判断しても、犯罪者が再逮捕されることをしばしば予測します。
裁判官の判断は、参加者の予測とは異なり、部分的には再逮捕の可能性がある要因に依存する。
論文 参考訳(メタデータ) (2021-09-03T11:09:10Z) - Indecision Modeling [50.00689136829134]
AIシステムは人間の価値観に合わせて行動することが重要である。
人々はしばしば決定的ではなく、特に彼らの決定が道徳的な意味を持つときです。
論文 参考訳(メタデータ) (2020-12-15T18:32:37Z) - Scruples: A Corpus of Community Ethical Judgments on 32,000 Real-Life
Anecdotes [72.64975113835018]
記述倫理に動機づけられた我々は、機械倫理に対する新しいデータ駆動アプローチを調査する。
Scruplesは、625,000の倫理的判断を持つ最初の大規模データセットで、32,000の実生活の逸話について紹介する。
我々のデータセットは最先端のニューラルネットワークモデルに対して大きな課題を示し、改善の余地を残しています。
論文 参考訳(メタデータ) (2020-08-20T17:34:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。