論文の概要: Proportionality in Thumbs Up and Down Voting
- arxiv url: http://arxiv.org/abs/2503.01985v1
- Date: Mon, 03 Mar 2025 19:02:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:15:56.185876
- Title: Proportionality in Thumbs Up and Down Voting
- Title(参考訳): 投票の上下差の比例性
- Authors: Sonja Kraiczy, Georgios Papasotiropoulos, Grzegorz Pierczyński, Piotr Skowron,
- Abstract要約: 上下投票の有無で比例関係を解釈する2つの概念的アプローチを提案する。
第一のアプローチは、候補者を選ぶことによる満足度を同等に扱い、複合比例保証をもたらす。
第2のアプローチでは、ベト・パワーを別々に検討し、従来の比例性とは異なる保証を導入する。
- 参考スコア(独自算出の注目度): 20.84797796151438
- License:
- Abstract: Consider the decision-making setting where agents elect a panel by expressing both positive and negative preferences. Prominently, in constitutional AI, citizens democratically select a slate of ethical preferences on which a foundation model is to be trained. There, in practice, agents may both approve and disapprove of different ethical principles. Proportionality has been well-studied in computational social choice for approval ballots, but its meaning remains unclear when negative sentiments are also considered. In this work, we propose two conceptually distinct approaches to interpret proportionality in the presence of up and down votes. The first approach treats the satisfaction from electing candidates and the impact of vetoing them as comparable, leading to combined proportionality guarantees. The second approach considers veto power separately, introducing guarantees distinct from traditional proportionality. We formalize axioms for each perspective and examine their satisfiability by suitable adaptations of Phragm\'en's rule, Proportional Approval Voting rule and the Method of Equal Shares.
- Abstract(参考訳): ポジティブとネガティブの両方の好みを表現して、エージェントがパネルを選定する意思決定設定を考えてみましょう。
立憲AIにおいて、市民は、基礎モデルを訓練する倫理的嗜好のスレートを民主的に選択する。
実際には、エージェントは異なる倫理原則を承認し、無効にすることができる。
比例性は、承認投票の計算社会選択においてよく研究されてきたが、その意味は否定的な感情も考慮されているかは定かではない。
本研究では,上下投票の有無で比例関係を解釈する2つの概念的アプローチを提案する。
第一のアプローチは、候補者を選ぶことの満足度と、それを比較して拒否する影響を扱い、複合比例保証をもたらす。
第2のアプローチでは、ベト・パワーを別々に検討し、従来の比例性とは異なる保証を導入する。
それぞれの観点で公理を定式化し、Pragm\'enの規則、Proportional Approval Votingルール、Equal Sharesの方法の適切な適応により、それらの満足度を調べる。
関連論文リスト
- Optimal bounds for dissatisfaction in perpetual voting [84.02572742131521]
我々は、投票者が何回も不満を抱いていないことを保証し、永遠の投票方法を考える。
我々は、不満のサブ線形成長が可能な有権者行動に関する十分な条件を特定する。
本稿では,専門家の助言による予測から得られた標準手法に基づいて,紛争条件下での不満をサブ線形に保証する投票手法を提案する。
論文 参考訳(メタデータ) (2024-12-20T19:58:55Z) - Policy Aggregation [21.21314301021803]
我々は、マルコフ決定プロセスにおいて、異なる報酬関数と最適なポリシーを持つ複数の個人とAIバリューアライメントの課題を考察する。
我々は、この問題を政策集約の1つとして定式化し、そこでは、望ましい集団的政策を特定することを目的としている。
主要な洞察は、社会的選択法は、国家が占有するポリトープのサブセットのボリュームと順序的選好を識別することで再解釈できるということである。
論文 参考訳(メタデータ) (2024-11-06T04:19:50Z) - Diverging Preferences: When do Annotators Disagree and do Models Know? [92.24651142187989]
我々は,4つのハイレベルクラスにまたがる10のカテゴリにまたがる相違点の分類法を開発した。
意見の相違の大部分は、標準的な報酬モデリングアプローチに反対している。
本研究は,選好の変化を識別し,評価とトレーニングへの影響を緩和する手法を開発する。
論文 参考訳(メタデータ) (2024-10-18T17:32:22Z) - Aligning Large Language Models by On-Policy Self-Judgment [49.31895979525054]
大規模言語モデルと人間の嗜好を整合させる既存のアプローチは、オンライン学習のために別々の報酬モデル(RM)を必要とするトレードオフに直面しています。
本稿では,オンライン学習を行う新たなアライメントフレームワークSELF-JUDGEを提案する。
また, さらなる評価を行なわずに, サンプリング自体がさらなる性能向上に寄与することを示した。
論文 参考訳(メタデータ) (2024-02-17T11:25:26Z) - The Decisive Power of Indecision: Low-Variance Risk-Limiting Audits and Election Contestation via Marginal Mark Recording [51.82772358241505]
リスクリミット監査(リスクリミット監査、RLA)は、大規模な選挙の結果を検証する技術である。
我々は、効率を改善し、統計力の進歩を提供する監査の新たなファミリーを定めている。
新しい監査は、複数の可能なマーク解釈を宣言できるように、キャストボイトレコードの標準概念を再考することで実現される。
論文 参考訳(メタデータ) (2024-02-09T16:23:54Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - The Distortion of Binomial Voting Defies Expectation [26.481697906062095]
本稿では,投票者の効用に対する基本的分布に関する投票規則の歪曲について検討する。
私たちの主な貢献は、新鮮で直感的なルール、二項投票の設計と分析です。
論文 参考訳(メタデータ) (2023-06-27T17:50:58Z) - Proportional Aggregation of Preferences for Sequential Decision Making [20.374669324368625]
投票者の選好を適度に決定する問題について検討する。
各ラウンドにおいて、決定ルールは、各投票者が承認した選択肢のどれかを報告する一連の選択肢から決定を選ばなければならない。
比喩的正当化表現に基づく公理を用いて、この目的を定式化する。
論文 参考訳(メタデータ) (2023-06-26T17:10:10Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - Group Fairness in Prediction-Based Decision Making: From Moral
Assessment to Implementation [0.0]
与えられた文脈における公平さの意味の道徳的評価のための枠組みを導入する。
評価結果を、確立された統計的グループフェアネス基準にマッピングする。
我々は、FECの原則を拡張して、すべての種類のグループフェアネス基準をカバーします。
論文 参考訳(メタデータ) (2022-10-19T10:44:21Z) - A Justice-Based Framework for the Analysis of Algorithmic
Fairness-Utility Trade-Offs [0.0]
予測に基づく意思決定システムでは、異なる視点が異なってくる可能性がある。
意思決定者の短期的なビジネス目標はしばしば、意思決定対象が公平に扱われたいという願望と矛盾している。
本稿では,これらの価値を優先した選択を明確化するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-06T20:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。