論文の概要: Fair, Manipulation-Robust, and Transparent Sortition
- arxiv url: http://arxiv.org/abs/2406.15009v1
- Date: Fri, 21 Jun 2024 09:38:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-24 14:03:36.848250
- Title: Fair, Manipulation-Robust, and Transparent Sortition
- Title(参考訳): フェア, マニピュレーション・ロバスト, 透明ソリション
- Authors: Carmel Baharav, Bailey Flanigan,
- Abstract要約: 我々は、ボランティアが選択の機会が少なすぎることを保証するため、新しい平等目標であるGoldilocksを提案する。
この目的は、ほとんどの実インスタンスにおいて、ほぼインスタンス最適最小および最大選択確率を同時に達成することを発見した。
- 参考スコア(独自算出の注目度): 1.9183348587701112
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sortition, the random selection of political representatives, is increasingly being used around the world to choose participants of deliberative processes like Citizens' Assemblies. Motivated by sortition's practical importance, there has been a recent flurry of research on sortition algorithms, whose task it is to select a panel from among a pool of volunteers. This panel must satisfy quotas enforcing representation of key population subgroups. Past work has contributed an algorithmic approach for fulfilling this task while ensuring that volunteers' chances of selection are maximally equal, as measured by any convex equality objective. The question, then, is: which equality objective is the right one? Past work has mainly studied the objectives Minimax and Leximin, which respectively minimize the maximum and maximize the minimum chance of selection given to any volunteer. Recent work showed that both of these objectives have key weaknesses: Minimax is highly robust to manipulation but is arbitrarily unfair; oppositely, Leximin is highly fair but arbitrarily manipulable. In light of this gap, we propose a new equality objective, Goldilocks, that aims to achieve these ideals simultaneously by ensuring that no volunteer receives too little or too much chance of selection. We theoretically bound the extent to which Goldilocks achieves these ideals, finding that in an important sense, Goldilocks recovers among the best available solutions in a given instance. We then extend our bounds to the case where the output of Goldilocks is transformed to achieve a third goal, Transparency. Our empirical analysis of Goldilocks in real data is even more promising: we find that this objective achieves nearly instance-optimal minimum and maximum selection probabilities simultaneously in most real instances -- an outcome not even guaranteed to be possible for any algorithm.
- Abstract(参考訳): 政治的代表者の無作為な選考であるソーティションは、市民集会のような熟考過程の参加者を選ぶために世界中でますます使われている。
近年,選別アルゴリズムの研究が盛んに行われており,その課題はボランティアのプールの中からパネルを選択することである。
このパネルは、キー集団の部分群の表現を強制するクォータを満たさなければならない。
過去の研究は、任意の凸等度目標によって測定されるように、ボランティアが選択する確率が最大に等しいことを保証しながら、このタスクを達成するためのアルゴリズム的なアプローチに貢献してきた。
問題は、どの平等目標が正しいか、ということです。
過去の研究は主にミニマックスとレキシミンの目的を研究しており、これは各ボランティアが与える最大選択率と最小選択確率を最大化している。
ミニマックスは操作に強いが、任意に不公平であり、反対に、レキシミンは極めて公平だが任意に操作可能である。
このギャップを考慮して、ボランティアが選択の機会が少なすぎることを保証することにより、これらの理想を同時に達成することを目的とした新しい平等目標であるGoldilocksを提案する。
我々は、Goldilocksがこれらのイデアルを達成する範囲を理論的に制限し、重要な意味では、Goldilocksは与えられた場合において最も有効な解のうちの1つを回復することを示した。
次に、Goldilocksの出力が変換され、第3のゴールであるTransparencyを達成するケースに境界を拡張します。
実データにおけるGoldilocksの実証分析は、さらに有望である: この目的は、ほとんどの実データインスタンスにおいて、ほぼインスタンス最適化の最小値と最大選択確率を同時に達成することである。
関連論文リスト
- Reward Maximization for Pure Exploration: Minimax Optimal Good Arm Identification for Nonparametric Multi-Armed Bandits [35.35226227009685]
グッドアーム識別(グッドアームアイソレーション、英: Good Arm Identification、IGA)は、腕をできるだけ早くしきい値以上の手段でラベル付けすることを目的とした、実用的なバンドイット推論の目的である。
本稿では,報奨最大化サンプリングアルゴリズムと新たな非有意シーケンシャルテストを組み合わせることで,GAを効率よく解くことができることを示す。
我々の実験結果は、ミニマックス設定を超えるアプローチを検証し、すべての停止時間におけるサンプルの期待数を、合成および実世界の設定で少なくとも50%削減する。
論文 参考訳(メタデータ) (2024-10-21T01:19:23Z) - Bandits with Preference Feedback: A Stackelberg Game Perspective [41.928798759636216]
好みのフィードバックを持つ帯域は、未知のターゲット関数を最適化する強力なツールを提供する。
ゼロサムのStackelbergゲームをエミュレートしたMAXMINLCBを提案する。
論文 参考訳(メタデータ) (2024-06-24T15:53:11Z) - Multi-Armed Bandits with Abstention [62.749500564313834]
本稿では, 新たな戦略要素である禁忌を取り入れた, 正準多重武装バンディット問題の拡張を提案する。
この強化されたフレームワークでは、エージェントは各タイムステップでアームを選択することだけでなく、観察する前に即時報酬を受け付けないオプションも備えている。
論文 参考訳(メタデータ) (2024-02-23T06:27:12Z) - Pure Exploration under Mediators' Feedback [63.56002444692792]
マルチアームバンディット(Multi-armed bandits)は、各インタラクションステップにおいて、学習者が腕を選択し、報酬を観察する、シーケンシャルな意思決定フレームワークである。
本稿では,学習者が仲介者の集合にアクセスできるシナリオについて考察する。
本稿では,学習者には仲介者の方針が知られていると仮定して,最適な腕を発見するための逐次的意思決定戦略を提案する。
論文 参考訳(メタデータ) (2023-08-29T18:18:21Z) - Generating Adversarial Examples with Task Oriented Multi-Objective
Optimization [21.220906842166425]
敵の訓練はモデルの堅牢性を改善する最も効率的な方法の1つである。
我々はこの問題に対処するためにemphTask Oriented MOOを提案する。
私たちの原則は、目標達成タスクのみを維持しながら、目標達成タスクの改善により多くの労力を費やすことです。
論文 参考訳(メタデータ) (2023-04-26T01:30:02Z) - A Large-scale Multiple-objective Method for Black-box Attack against
Object Detection [70.00150794625053]
我々は、真正の確率を最小化し、偽正の確率を最大化し、より多くの偽正の物体が新しい真正の有界箱を作らないようにする。
我々は、GARSDCと呼ばれるランダム・サブセット選択とディバイド・アンド・コンカーによる標準的な遺伝的アルゴリズムを拡張し、効率を大幅に改善する。
最先端攻撃法と比較して、GARSDCはmAPでは平均12.0、広範囲な実験ではクエリでは約1000倍減少する。
論文 参考訳(メタデータ) (2022-09-16T08:36:42Z) - Pushing the limits of fairness impossibility: Who's the fairest of them
all? [6.396013144017572]
3つの指標を最大限に満たすために,不合理定理の限界を押し上げる枠組みを提案する。
モデル性能を最小限に抑えつつ,各定義の公平性を両立できることを示す実験を行った。
論文 参考訳(メタデータ) (2022-08-24T22:04:51Z) - Guarantees for Epsilon-Greedy Reinforcement Learning with Function
Approximation [69.1524391595912]
エプシロングレーディ、ソフトマックス、ガウシアンノイズといった神秘的な探索政策は、いくつかの強化学習タスクにおいて効率的に探索することができない。
本稿では,このような政策を理論的に分析し,筋電図探索による強化学習のための最初の後悔とサンプル複雑度境界を提供する。
論文 参考訳(メタデータ) (2022-06-19T14:44:40Z) - Maxmin-Fair Ranking: Individual Fairness under Group-Fairness
Constraints [11.3077234652777]
グループフェアの制約を課す際に生じる個人不公平の量を最小限に抑えることを目的としたランキングにおける公平性の新たな問題について検討する。
提案手法は, ランダム化を用いて, 最悪の個人が期待する満足度を最大化する分布最大化理論に根ざしている。
論文 参考訳(メタデータ) (2021-06-16T09:27:12Z) - Lenient Regret for Multi-Armed Bandits [72.56064196252498]
エージェントが順番に行動を選択し、その行動に対する報酬を観察するマルチアーマッド・バンディット(MAB)問題を考察する。
アルゴリズムの大多数は、後悔、すなわち最高の行動の報酬とエージェントの行動の累積的な差を最小化しようとするが、この基準は望ましくない結果をもたらすかもしれない。
我々は、いくつかの$epsilon$よりも小さな最適性ギャップを無視した、より寛大で寛大で後悔すべき基準を提案する。
論文 参考訳(メタデータ) (2020-08-10T08:30:52Z) - Automatic Curriculum Learning through Value Disagreement [95.19299356298876]
新しい未解決タスクを継続的に解決することが、多様な行動を学ぶための鍵です。
エージェントが複数の目標を達成する必要があるマルチタスク領域では、トレーニング目標の選択はサンプル効率に大きな影響を与える可能性がある。
そこで我々は,エージェントが解決すべき目標のための自動カリキュラムを作成することを提案する。
提案手法は,13のマルチゴールロボットタスクと5つのナビゲーションタスクにまたがって評価し,現在の最先端手法よりも高い性能を示す。
論文 参考訳(メタデータ) (2020-06-17T03:58:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。