論文の概要: Social Choice with Changing Preferences: Representation Theorems and
Long-Run Policies
- arxiv url: http://arxiv.org/abs/2011.02544v1
- Date: Wed, 4 Nov 2020 21:21:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 22:50:39.279419
- Title: Social Choice with Changing Preferences: Representation Theorems and
Long-Run Policies
- Title(参考訳): 選好の変化を伴う社会的選択--表現定理と長期政策
- Authors: Kshitij Kulkarni, Sven Neth
- Abstract要約: 社会的選択論からの表現定理が最適政策を特徴づけるためにどのように適応できるかを示す。
本稿では,社会選択論の功利主義的社会福祉機能に適合するMDP報酬関数の公理的特性について述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study group decision making with changing preferences as a Markov Decision
Process. We are motivated by the increasing prevalence of automated
decision-making systems when making choices for groups of people over time. Our
main contribution is to show how classic representation theorems from social
choice theory can be adapted to characterize optimal policies in this dynamic
setting. We provide an axiomatic characterization of MDP reward functions that
agree with the Utilitarianism social welfare functionals of social choice
theory. We also provide discussion of cases when the implementation of social
choice-theoretic axioms may fail to lead to long-run optimal outcomes.
- Abstract(参考訳): マルコフ決定プロセスとして、好みを変えるグループ意思決定について検討する。
私たちは、時間とともにグループを選択できる自動意思決定システムの増加にモチベーションを受けています。
我々の主要な貢献は、社会的選択理論からの古典的な表現定理が、この動的設定において最適なポリシーを特徴づけるためにどのように適応できるかを示すことである。
本稿では,社会選択論の功利主義社会福祉機能に適合するMDP報酬関数の公理的特性について述べる。
また,社会的選択論的公理の実施が長期的最適結果に繋がらない場合についても議論する。
関連論文リスト
- Policy Aggregation [21.21314301021803]
我々は、マルコフ決定プロセスにおいて、異なる報酬関数と最適なポリシーを持つ複数の個人とAIバリューアライメントの課題を考察する。
我々は、この問題を政策集約の1つとして定式化し、そこでは、望ましい集団的政策を特定することを目的としている。
主要な洞察は、社会的選択法は、国家が占有するポリトープのサブセットのボリュームと順序的選好を識別することで再解釈できるということである。
論文 参考訳(メタデータ) (2024-11-06T04:19:50Z) - Representative Social Choice: From Learning Theory to AI Alignment [0.0]
代表的な社会的選択において、人口は、どの社会的選択決定が下されるかに基づいて、個々の課題のペアの有限のサンプルによって代表される。
代表的社会的選択における最も深い質問の多くは、統計的学習問題として自然に定式化できることを示す。
我々はさらに、社会選択の代表を定式化し、Arrowのような公理を一般化分析の新しいツールで証明する。
論文 参考訳(メタデータ) (2024-10-31T14:07:26Z) - Axioms for AI Alignment from Human Feedback [44.51306968484829]
我々は、強力な公理保証を持つ報酬関数を学習するための新しいルールを開発する。
社会的選択の観点からの重要な革新は、我々の問題が線形構造を持っていることである。
論文 参考訳(メタデータ) (2024-05-23T16:29:29Z) - Average-Case Analysis of Iterative Voting [33.68929251752289]
反復投票は、社会的選択における戦略的意思決定の自然なモデルである。
先行研究は、選択された結果の均衡度に対する反復的な複数の効果を解析した。
本研究は, 平均ケース分析をより広範な分布クラスに拡張し, 反復的複数回による福祉改善や低下を区別する。
論文 参考訳(メタデータ) (2024-02-13T00:46:46Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - Off-Policy Evaluation with Policy-Dependent Optimization Response [90.28758112893054]
我々は,テキスト政治に依存した線形最適化応答を用いた非政治評価のための新しいフレームワークを開発した。
摂動法による政策依存推定のための非バイアス推定器を構築する。
因果介入を最適化するための一般的なアルゴリズムを提供する。
論文 参考訳(メタデータ) (2022-02-25T20:25:37Z) - Temporal Abstraction in Reinforcement Learning with the Successor
Representation [65.69658154078007]
我々は、後継表現(SR)が時間的抽象化の発見と利用の自然な基盤とみなすことができると論じる。
我々は、SRが時間的に延長された探索や計画を容易にする選択肢を見つけるためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2021-10-12T05:07:43Z) - Efficient PAC Reinforcement Learning in Regular Decision Processes [99.02383154255833]
定期的な意思決定プロセスで強化学習を研究します。
我々の主な貢献は、最適に近いポリシーをパラメータのセットで時間内にPACを学習できることである。
論文 参考訳(メタデータ) (2021-05-14T12:08:46Z) - Towards a new Social Choice Theory [0.0]
社会的選択とは、個人の意見、好み、関心、福祉から始まる社会福祉に対する集団的決定に関する理論である。
計算社会福祉(Computational Social Welfare)の分野はやや最近で、人工知能コミュニティに影響を及ぼしている。
私は、社会選択最適化のグローバルな社会的目標として、オープンスタンダードとオープン統合理論に従い、導入したいと思います。
論文 参考訳(メタデータ) (2020-07-30T11:36:36Z) - Decentralized Reinforcement Learning: Global Decision-Making via Local
Economic Transactions [80.49176924360499]
我々は、シーケンシャルな意思決定問題を解決するために、単純で専門的で自己関心のあるエージェントの社会を指示する枠組みを確立する。
我々は分散強化学習アルゴリズムのクラスを導出する。
我々は、より効率的な移動学習のための社会固有のモジュラー構造の潜在的な利点を実証する。
論文 参考訳(メタデータ) (2020-07-05T16:41:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。