論文の概要: Intuitions of Compromise: Utilitarianism vs. Contractualism
- arxiv url: http://arxiv.org/abs/2410.05496v1
- Date: Mon, 7 Oct 2024 21:05:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-01 18:18:05.019150
- Title: Intuitions of Compromise: Utilitarianism vs. Contractualism
- Title(参考訳): 妥協の直観: 利他主義と契約主義
- Authors: Jared Moore, Yejin Choi, Sydney Levine,
- Abstract要約: 我々は、社会的な意思決定の文脈において、グループ間での嗜好を集約するためにアルゴリズムを適用するパラダイムを使用している。
現在まで、バリューアグリゲーションに対する支配的なアプローチは実用的だが、私たちは契約者アルゴリズムが推奨するアグリゲーションを強く好んでいることに気付きました。
- 参考スコア(独自算出の注目度): 42.3322948655612
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: What is the best compromise in a situation where different people value different things? The most commonly accepted method for answering this question -- in fields across the behavioral and social sciences, decision theory, philosophy, and artificial intelligence development -- is simply to add up utilities associated with the different options and pick the solution with the largest sum. This ``utilitarian'' approach seems like the obvious, theory-neutral way of approaching the problem. But there is an important, though often-ignored, alternative: a ``contractualist'' approach, which advocates for an agreement-driven method of deciding. Remarkably, no research has presented empirical evidence directly comparing the intuitive plausibility of these two approaches. In this paper, we systematically explore the proposals suggested by each algorithm (the ``Utilitarian Sum'' and the contractualist ''Nash Product''), using a paradigm that applies those algorithms to aggregating preferences across groups in a social decision-making context. While the dominant approach to value aggregation up to now has been utilitarian, we find that people strongly prefer the aggregations recommended by the contractualist algorithm. Finally, we compare the judgments of large language models (LLMs) to that of our (human) participants, finding important misalignment between model and human preferences.
- Abstract(参考訳): 異なる人々が異なるものを価値とみなす状況において、最良の妥協は何か?
行動科学、社会科学、意思決定理論、哲学、人工知能開発といった分野において、この問いに答える最も一般的な方法は、単に異なる選択肢に関連するユーティリティを追加し、最も大きな金額で解を選ぶことである。
この‘実用的’なアプローチは、問題にアプローチする明らかで理論中立的な方法のように見える。
しかし、重要な、しかししばしば無視される代替手段がある: '契約主義者' アプローチは、合意駆動による決定の方法を支持する。
興味深いことに、これらの2つのアプローチの直観的妥当性を直接比較した経験的証拠は存在しない。
本稿では,各アルゴリズムが提案する提案('Utilitarian Sum'と'Nash Product')を,社会的意思決定の文脈におけるグループ間の嗜好の集約にこれらのアルゴリズムを適用したパラダイムを用いて体系的に検討する。
現在まで、バリューアグリゲーションに対する支配的なアプローチは実用的だが、私たちは契約者アルゴリズムが推奨するアグリゲーションを強く好んでいることに気付きました。
最後に、大言語モデル(LLM)の判断を、我々の(人間)参加者の判断と比較し、モデルと人間の嗜好の間に重要な相違を見出した。
関連論文リスト
- Sequential Manipulation Against Rank Aggregation: Theory and Algorithm [119.57122943187086]
脆弱なデータ収集プロセスに対するオンライン攻撃を活用します。
ゲーム理論の観点からは、対決シナリオは分布的に堅牢なゲームとして定式化される。
提案手法は,ランクアグリゲーション手法の結果を逐次的に操作する。
論文 参考訳(メタデータ) (2024-07-02T03:31:21Z) - RLHF from Heterogeneous Feedback via Personalization and Preference Aggregation [24.374185140811115]
人間からのフィードバックからの強化学習(RLHF)は、AIシステムを人間の価値と整合させる効果的な手法である。
本稿では、人間の嗜好に固有の異質性や、フィードバックの提供における潜在的な戦略的行動から、この問題に対処することに焦点を当てる。
本研究では, 個人化に基づく手法と集約に基づく手法の2つの枠組みを提案する。
論文 参考訳(メタデータ) (2024-04-30T23:57:23Z) - MaxMin-RLHF: Towards Equitable Alignment of Large Language Models with
Diverse Human Preferences [101.57443597426374]
Reinforcement Learning from Human Feedback (RLHF) は、言語モデルと人間の嗜好を一致させる。
予測最大化アルゴリズムを用いて嗜好分布の混合を学習し、人間の嗜好をよりよく表現する。
従来のRLHFアルゴリズムよりも16%以上の勝利率向上を実現している。
論文 参考訳(メタデータ) (2024-02-14T03:56:27Z) - Provable Benefits of Policy Learning from Human Preferences in
Contextual Bandit Problems [82.92678837778358]
嗜好に基づく手法は、InstructGPTのような経験的応用でかなりの成功を収めている。
フィードバックモデリングにおける人間のバイアスと不確実性がこれらのアプローチの理論的保証にどのように影響するかを示す。
論文 参考訳(メタデータ) (2023-07-24T17:50:24Z) - From Utilitarian to Rawlsian Designs for Algorithmic Fairness [0.0]
善の2つの(おそらく)矛盾する概念を補間する客観関数のクラスを提示する。
我々は最適解を計算し、有効性の概念と善のラウルシアン概念の間のトレードオフを構築する」。
「この研究は「公正の適切な度合い」が、誘導的実用主義とルールシアン・グッドの空間に対するデザイナーの嗜好によってもたらされることを示唆している。」
論文 参考訳(メタデータ) (2023-02-07T16:28:10Z) - From Explanation to Recommendation: Ethical Standards for Algorithmic
Recourse [0.0]
我々は、リコースは、説明問題ではなく、レコメンデーション問題と見なされるべきであると主張する。
本稿では,アルゴリズム的言論における多様性制約について考察する。
論文 参考訳(メタデータ) (2022-05-30T20:09:42Z) - Learning to be Fair: A Consequentialist Approach to Equitable
Decision-Making [21.152377319502705]
等価なアルゴリズムを設計するための代替フレームワークを提案する。
このアプローチでは、まず第一に、決定の可能な空間よりも利害関係者の選好を導きます。
次に、決定ポリシーの空間を最適化し、提案されたユーティリティを最大化する方法でトレードオフを行います。
論文 参考訳(メタデータ) (2021-09-18T00:30:43Z) - Diversity in Kemeny Rank Aggregation: A Parameterized Approach [3.6603644500568806]
ソリューション多様性と呼ばれる最近の人工知能のトレンドは、最適性の概念の発展に焦点を当てている。
本研究では,この組み合わせがケメニー・ランク・アグリゲーションの分野に与える影響について検討する。
我々の主な成果は、線形に順序付けられた投票よりも伝統的な集計の設定を考えるときと、部分的に投票が順序付けられたより一般的な場合の両方に当てはまる。
論文 参考訳(メタデータ) (2021-05-19T21:50:03Z) - Scalable Personalised Item Ranking through Parametric Density Estimation [53.44830012414444]
暗黙のフィードバックから学ぶことは、一流問題の難しい性質のために困難です。
ほとんどの従来の方法は、一級問題に対処するためにペアワイズランキングアプローチとネガティブサンプラーを使用します。
本論文では,ポイントワイズと同等の収束速度を実現する学習対ランクアプローチを提案する。
論文 参考訳(メタデータ) (2021-05-11T03:38:16Z) - Preference learning along multiple criteria: A game-theoretic
perspective [97.94912276610002]
我々は、ブラックウェルの接近性からインスピレーションを得て、フォン・ノイマンの勝者の概念をマルチ基準設定に一般化する。
本フレームワークは,基準間の選好の非線形集約を可能にし,多目的最適化から線形化に基づくアプローチを一般化する。
凸最適化問題の解法として,マルチ基準問題インスタンスのブラックウェルの勝者が計算可能であることを示す。
論文 参考訳(メタデータ) (2021-05-05T03:23:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。