論文の概要: What If I Don't Like Any Of The Choices? The Limits of Preference
Elicitation for Participatory Algorithm Design
- arxiv url: http://arxiv.org/abs/2007.06718v1
- Date: Mon, 13 Jul 2020 21:58:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 00:50:53.966728
- Title: What If I Don't Like Any Of The Choices? The Limits of Preference
Elicitation for Participatory Algorithm Design
- Title(参考訳): もし私の選択が気に入らなかったら?
参加型アルゴリズム設計における選好誘発の限界
- Authors: Samantha Robertson and Niloufar Salehi
- Abstract要約: 限られた資源の分配における個人の嗜好満足度を最適化することは、実際には社会的かつ分配的な正義への進歩を阻害する可能性があると論じる。
個人の嗜好は有用な信号であるが、より表現力があり、包括的な形での民主的参加をサポートするよう拡張されるべきである。
- 参考スコア(独自算出の注目度): 12.386462516398469
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Emerging methods for participatory algorithm design have proposed collecting
and aggregating individual stakeholder preferences to create algorithmic
systems that account for those stakeholders' values. Using algorithmic student
assignment as a case study, we argue that optimizing for individual preference
satisfaction in the distribution of limited resources may actually inhibit
progress towards social and distributive justice. Individual preferences can be
a useful signal but should be expanded to support more expressive and inclusive
forms of democratic participation.
- Abstract(参考訳): 参加型アルゴリズム設計の創発的手法は、利害関係者の価値観を考慮したアルゴリズムシステムを構築するために、個々の利害関係者の好みを収集し集約することを提案した。
アルゴリズムによる学生割当を事例として,限られた資源の分布における個人の選好満足度を最適化することは,実際には社会的・分散的正義への進歩を阻害する可能性があると論じた。
個人の嗜好は有用な信号であるが、より表現力があり包括的な民主的参加を支援するために拡張されるべきである。
関連論文リスト
- MaxMin-RLHF: Towards Equitable Alignment of Large Language Models with
Diverse Human Preferences [101.57443597426374]
Reinforcement Learning from Human Feedback (RLHF) は、言語モデルと人間の嗜好を一致させる。
予測最大化アルゴリズムを用いて嗜好分布の混合を学習し、人間の嗜好をよりよく表現する。
従来のRLHFアルゴリズムよりも16%以上の勝利率向上を実現している。
論文 参考訳(メタデータ) (2024-02-14T03:56:27Z) - Personalized Reinforcement Learning with a Budget of Policies [9.846353643883443]
機械学習(ML)におけるパーソナライゼーションは、ユーザの個々の特性に対する決定をモデル化する。
本稿では,Markov Decision Processes (r-MDPs) に代表される新しいフレームワークを提案する。
r-MDPでは、少数の代表ポリシーとのインタラクションを通じて、それぞれ独自の嗜好を持つ多様なユーザ人口に対応する。
r-MDPを効率的に解くための2つの深層強化学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-01-12T11:27:55Z) - Reinforcement Learning from Diverse Human Preferences [95.61153128294939]
本稿では,人選好ラベルをクラウドソーシングし,多様な嗜好から学習する手法を開発した。
提案手法はDMcontrolとMeta-worldの様々なタスクでテストされる。
多様なフィードバックから学ぶと、既存の好みベースのRLアルゴリズムよりも一貫性があり、大幅に改善されている。
論文 参考訳(メタデータ) (2023-01-27T15:18:54Z) - Incentivizing Combinatorial Bandit Exploration [87.08827496301839]
自己関心のあるユーザに対してレコメンデーションシステムでアクションを推奨するバンディットアルゴリズムを考える。
ユーザーは他のアクションを自由に選択でき、アルゴリズムの推奨に従うためにインセンティブを得る必要がある。
ユーザは悪用を好むが、アルゴリズムは、前のユーザから収集した情報を活用することで、探索にインセンティブを与えることができる。
論文 参考訳(メタデータ) (2022-06-01T13:46:25Z) - Sequential Information Design: Markov Persuasion Process and Its
Efficient Reinforcement Learning [156.5667417159582]
本稿では,逐次情報設計の新たなモデル,すなわちマルコフ説得過程(MPP)を提案する。
MPPのプランニングは、ミオピックレシーバーに同時に説得されるシグナルポリシーを見つけ、送信者の最適な長期累積ユーティリティを誘導する、というユニークな課題に直面している。
我々は,楽観主義と悲観主義の両原理の新たな組み合わせを特徴とする,実証可能な効率のよい非回帰学習アルゴリズム,Optimism-Pessimism Principle for Persuasion Process (OP4) を設計する。
論文 参考訳(メタデータ) (2022-02-22T05:41:43Z) - Achieving Counterfactual Fairness for Causal Bandit [18.077963117600785]
期待される報酬を最大化するために、各ステップでアイテムを推薦する方法を研究します。
次に, 対実的個人的公正性を達成するためのフェア因果バンドイット(F-UCB)を提案する。
論文 参考訳(メタデータ) (2021-09-21T23:44:48Z) - Learning to be Fair: A Consequentialist Approach to Equitable
Decision-Making [21.152377319502705]
等価なアルゴリズムを設計するための代替フレームワークを提案する。
このアプローチでは、まず第一に、決定の可能な空間よりも利害関係者の選好を導きます。
次に、決定ポリシーの空間を最適化し、提案されたユーティリティを最大化する方法でトレードオフを行います。
論文 参考訳(メタデータ) (2021-09-18T00:30:43Z) - Adaptive Combinatorial Allocation [77.86290991564829]
割り当てが繰り返し選択され、戻り値は不明だが学習可能であり、決定には制約が伴う。
我々のモデルは、複雑な制約があっても、両側のマッチングと一方のマッチングをカバーしています。
論文 参考訳(メタデータ) (2020-11-04T15:02:59Z) - Adaptive Sampling for Best Policy Identification in Markov Decision
Processes [79.4957965474334]
本稿では,学習者が生成モデルにアクセスできる場合の,割引マルコフ決定(MDP)における最良の政治的識別の問題について検討する。
最先端アルゴリズムの利点を論じ、解説する。
論文 参考訳(メタデータ) (2020-09-28T15:22:24Z) - Fair and Useful Cohort Selection [12.319543784920304]
Dwork と Ilvento は、fair-cohort-selection 問題と呼ばれるアーティピーパル問題を導入した。
与えられた大きさの候補のグループを選択するために、単一の公正分類器がそれ自身で構成される。
オフライン設定とオンライン設定の両方で、この問題に対して最適な(あるいはほぼ最適)時間アルゴリズムを提供する。
論文 参考訳(メタデータ) (2020-09-04T14:06:08Z) - Fair Policy Targeting [0.6091702876917281]
社会福祉プログラムにおける個人に対する介入を標的とする主な関心事の1つは差別である。
本稿では,公平かつ効率的な処理割り当てルールの設計に関する課題に対処する。
論文 参考訳(メタデータ) (2020-05-25T20:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。