論文の概要: Indecision Modeling
- arxiv url: http://arxiv.org/abs/2012.08485v2
- Date: Fri, 12 Mar 2021 22:44:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-07 05:14:31.650541
- Title: Indecision Modeling
- Title(参考訳): 不確定モデリング
- Authors: Duncan C McElfresh, Lok Chan, Kenzie Doyle, Walter Sinnott-Armstrong,
Vincent Conitzer, Jana Schaich Borg, John P Dickerson
- Abstract要約: AIシステムは人間の価値観に合わせて行動することが重要である。
人々はしばしば決定的ではなく、特に彼らの決定が道徳的な意味を持つときです。
- 参考スコア(独自算出の注目度): 50.00689136829134
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: AI systems are often used to make or contribute to important decisions in a
growing range of applications, including criminal justice, hiring, and
medicine. Since these decisions impact human lives, it is important that the AI
systems act in ways which align with human values. Techniques for preference
modeling and social choice help researchers learn and aggregate peoples'
preferences, which are used to guide AI behavior; thus, it is imperative that
these learned preferences are accurate. These techniques often assume that
people are willing to express strict preferences over alternatives; which is
not true in practice. People are often indecisive, and especially so when their
decision has moral implications. The philosophy and psychology literature shows
that indecision is a measurable and nuanced behavior -- and that there are
several different reasons people are indecisive. This complicates the task of
both learning and aggregating preferences, since most of the relevant
literature makes restrictive assumptions on the meaning of indecision. We begin
to close this gap by formalizing several mathematical \emph{indecision} models
based on theories from philosophy, psychology, and economics; these models can
be used to describe (indecisive) agent decisions, both when they are allowed to
express indecision and when they are not. We test these models using data
collected from an online survey where participants choose how to
(hypothetically) allocate organs to patients waiting for a transplant.
- Abstract(参考訳): AIシステムは、刑事司法、雇用、医療など、幅広い分野で重要な決定を下す、または貢献するためにしばしば使用される。
これらの決定は人間の生活に影響を与えるため、AIシステムが人間の価値観と整合して行動することが重要である。
選好モデリングと社会的選好のテクニックは、aiの行動を導くために使用される人の選好を研究者が学び、集約するのに役立ちます。
これらのテクニックは、人々が選択肢よりも厳格な好みを表現しようとすると仮定することが多い。
人はしばしば非決定的であり、特に彼らの決定が道徳的な意味を持つときである。
哲学と心理学の文献は、不決定は測定可能でニュアンスのある行動であり、人々が不決定的な理由がいくつかあることを示している。
これは、多くの文献が不確定の意味について限定的な仮定をしているため、学習と選好の集約の両方のタスクを複雑にする。
このギャップは、哲学、心理学、経済学の理論に基づく数種類の数学的な「emph{indecision}」モデルを定式化することによって解決され、これらのモデルは、不確定性を表現することが許されたときとそうでないときの両方において、(決定不能な)エージェント決定を記述するのに使用できる。
これらのモデルをオンライン調査から収集したデータを用いてテストし,移植待ちの患者に対して臓器の割り当て方法を選択する。
関連論文リスト
- Exploring and steering the moral compass of Large Language Models [55.2480439325792]
大規模言語モデル(LLM)は、様々な分野における自動化と意思決定の推進の中心となっている。
本研究は,その道徳的特徴を評価するために,最も先進的なLCMの総合的比較分析を提案する。
論文 参考訳(メタデータ) (2024-05-27T16:49:22Z) - Does AI help humans make better decisions? A statistical evaluation framework for experimental and observational studies [0.43981305860983716]
我々は、人間とAI、AIの3つの代替意思決定システムのパフォーマンスを比較する方法を示す。
リスクアセスメントの勧告は、現金保釈を課す裁判官の決定の分類精度を向上しないことがわかった。
論文 参考訳(メタデータ) (2024-03-18T01:04:52Z) - Decision Theoretic Foundations for Experiments Evaluating Human Decisions [18.27590643693167]
我々は、人間のパフォーマンスの損失をバイアスの形で評価するためには、合理的なエージェントが実用性を最大化する決定を識別する必要があるという情報を参加者に提供する必要があると論じる。
実演として,AIによる意思決定に関する文献からの意思決定の評価が,これらの基準をどの程度達成したかを評価する。
論文 参考訳(メタデータ) (2024-01-25T16:21:37Z) - From DDMs to DNNs: Using process data and models of decision-making to
improve human-AI interactions [1.1510009152620668]
人工知能(AI)の研究は、意思決定が時間とともにどのように現れるかについての洞察に強い焦点をあてることから恩恵を受けるだろう、と私たちは主張する。
まず,ノイズの蓄積による決定を前提とした,高度に確立された計算フレームワークを提案する。
次に、マルチエージェントAIにおける現在のアプローチが、プロセスデータや意思決定のモデルをどの程度取り入れているかについて議論する。
論文 参考訳(メタデータ) (2023-08-29T11:27:22Z) - In Search of Insights, Not Magic Bullets: Towards Demystification of the
Model Selection Dilemma in Heterogeneous Treatment Effect Estimation [92.51773744318119]
本稿では,異なるモデル選択基準の長所と短所を実験的に検討する。
選択戦略,候補推定器,比較に用いるデータの間には,複雑な相互作用があることを強調した。
論文 参考訳(メタデータ) (2023-02-06T16:55:37Z) - Randomized Classifiers vs Human Decision-Makers: Trustworthy AI May Have
to Act Randomly and Society Seems to Accept This [0.8889304968879161]
我々は、人的決定に似て、人工エージェントの判断は必然的に道徳的な原則に根ざすべきであると感じている。
しかし、意思決定者が真に倫理的(倫理的理論に基づく)かつ公正(公平性の概念による)な決定を行うことができるのは、決定を根拠とするすべての関連する要因に関する完全な情報が意思決定時に利用可能である場合のみである。
論文 参考訳(メタデータ) (2021-11-15T05:39:02Z) - Learning the Preferences of Uncertain Humans with Inverse Decision
Theory [10.926992035470372]
我々は,不確実性の下で連続的でない二項決定を行う,人間を観察する枠組みである逆決定理論(IDT)の設定について検討する。
IDTでは、人間の好みは損失関数を通じて伝達され、異なるタイプの誤り間のトレードオフを表現する。
決定問題がより不確実な場合には、実際に好みを特定するのが簡単であることを示す。
論文 参考訳(メタデータ) (2021-06-19T00:11:13Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [62.61153549123407]
建設のギャップを狭めるために観測結果と組み合わせることができる情報源として,歴史専門家による意思決定の利用について検討する。
本研究では,データ内の各ケースが1人の専門家によって評価された場合に,専門家の一貫性を間接的に推定する影響関数に基づく手法を提案する。
本研究は, 児童福祉領域における臨床現場でのシミュレーションと実世界データを用いて, 提案手法が構成ギャップを狭めることに成功していることを示す。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - Scruples: A Corpus of Community Ethical Judgments on 32,000 Real-Life
Anecdotes [72.64975113835018]
記述倫理に動機づけられた我々は、機械倫理に対する新しいデータ駆動アプローチを調査する。
Scruplesは、625,000の倫理的判断を持つ最初の大規模データセットで、32,000の実生活の逸話について紹介する。
我々のデータセットは最先端のニューラルネットワークモデルに対して大きな課題を示し、改善の余地を残しています。
論文 参考訳(メタデータ) (2020-08-20T17:34:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。