論文の概要: Representative Social Choice: From Learning Theory to AI Alignment
- arxiv url: http://arxiv.org/abs/2410.23953v1
- Date: Thu, 31 Oct 2024 14:07:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-01 17:03:55.465783
- Title: Representative Social Choice: From Learning Theory to AI Alignment
- Title(参考訳): 代表的社会選択:学習理論からAIアライメントへ
- Authors: Tianyi Qiu,
- Abstract要約: 代表的な社会的選択において、人口は、どの社会的選択決定が下されるかに基づいて、個々の課題のペアの有限のサンプルによって代表される。
代表的社会的選択における最も深い質問の多くは、統計的学習問題として自然に定式化できることを示す。
我々はさらに、社会選択の代表を定式化し、Arrowのような公理を一般化分析の新しいツールで証明する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Social choice theory is the study of preference aggregation across a population, used both in mechanism design for human agents and in the democratic alignment of language models. In this study, we propose the representative social choice framework for the modeling of democratic representation in collective decisions, where the number of issues and individuals are too large for mechanisms to consider all preferences directly. These scenarios are widespread in real-world decision-making processes, such as jury trials, indirect elections, legislation processes, corporate governance, and, more recently, language model alignment. In representative social choice, the population is represented by a finite sample of individual-issue pairs based on which social choice decisions are made. We show that many of the deepest questions in representative social choice can be naturally formulated as statistical learning problems, and prove the generalization properties of social choice mechanisms using the theory of machine learning. We further formulate axioms for representative social choice, and prove Arrow-like impossibility theorems with new combinatorial tools of analysis. Our framework introduces the representative approach to social choice, opening up research directions at the intersection of social choice, learning theory, and AI alignment.
- Abstract(参考訳): 社会的選択論 (Social choice theory) は、人間のエージェントのメカニズム設計と言語モデルの民主的アライメントの両方に使用される、人口間での嗜好の集約の研究である。
本研究では,集団決定における民主的表現のモデル化のための代表的社会的選択枠組みを提案する。
これらのシナリオは、陪審裁判、間接選挙、立法プロセス、コーポレートガバナンス、最近では言語モデルアライメントなど、現実世界の意思決定プロセスに広まっています。
代表的な社会的選択において、人口は、どの社会的選択決定が下されるかに基づいて、個々の課題のペアの有限のサンプルによって代表される。
代表的社会的選択における最も深い質問の多くは、統計的学習問題として自然に定式化できることを示し、機械学習理論を用いて、社会的選択機構の一般化特性を証明した。
我々はさらに、代表的社会的選択のための公理を定式化し、新しい組合せ分析ツールでアローのような不合理性定理を証明した。
本フレームワークは,社会的選択の代表的なアプローチを導入し,社会的選択,学習理論,AIアライメントの交差点に研究の方向性を開放する。
関連論文リスト
- From Experts to the Public: Governing Multimodal Language Models in Politically Sensitive Video Analysis [48.14390493099495]
本稿では,大規模言語モデル(MM-LLM)の個人的および集団的検討を通じて,ガバナンスについて検討する。
筆者らは,まず10人のジャーナリストにインタビューを行い,専門家によるビデオ解釈のベースライン理解を確立した。第2に,包括的.AIを用いた議論に携わる一般市民114名を対象にした。
論文 参考訳(メタデータ) (2024-09-15T03:17:38Z) - Representation Bias in Political Sample Simulations with Large Language Models [54.48283690603358]
本研究は,大規模言語モデルを用いた政治サンプルのシミュレーションにおけるバイアスの同定と定量化を目的とする。
GPT-3.5-Turboモデルを用いて、米国選挙研究、ドイツ縦割り選挙研究、ズオビアオデータセット、中国家族パネル研究のデータを活用する。
論文 参考訳(メタデータ) (2024-07-16T05:52:26Z) - Generative Social Choice [30.23505343152816]
本稿では,社会的選択理論の厳密さと大規模言語モデルによるテキスト生成と外挿選好の能力を組み合わせる枠組みである生成的社会的選択について紹介する。
本稿では,自由形式の文章として表現された意見を表す文のスレートを生成する問題に,この枠組みを適用した。
100人中93人が、抽出した5つの発言のスレートによって「ほとんど」あるいは「完璧」と感じていることがわかった。
論文 参考訳(メタデータ) (2023-09-03T23:47:21Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Graph-Based Methods for Discrete Choice [27.874979682322376]
グラフ学習を使って、ネットワーク化されたコンテキストにおける選択を研究します。
ソーシャルネットワーク構造を取り入れることで、標準的な計量的選択モデルの予測を改善することができることを示す。
論文 参考訳(メタデータ) (2022-05-23T14:51:23Z) - Socially-Optimal Mechanism Design for Incentivized Online Learning [32.55657244414989]
マルチアーム・バンディット(英: Multi-arm bandit、MAB)は、不確実な環境でのシーケンシャルな意思決定を研究する古典的なオンライン学習フレームワークである。
これは、スペクトル共有、クラウドセンシング、エッジコンピューティングなど、多くのアプリケーションにおいて事実上重要なシナリオである。
本稿では,このシナリオに対するインセンティブ付きオンライン学習(IOL)フレームワークを確立する。
論文 参考訳(メタデータ) (2021-12-29T00:21:40Z) - Randomized Classifiers vs Human Decision-Makers: Trustworthy AI May Have
to Act Randomly and Society Seems to Accept This [0.8889304968879161]
我々は、人的決定に似て、人工エージェントの判断は必然的に道徳的な原則に根ざすべきであると感じている。
しかし、意思決定者が真に倫理的(倫理的理論に基づく)かつ公正(公平性の概念による)な決定を行うことができるのは、決定を根拠とするすべての関連する要因に関する完全な情報が意思決定時に利用可能である場合のみである。
論文 参考訳(メタデータ) (2021-11-15T05:39:02Z) - Towards Socially Intelligent Agents with Mental State Transition and
Human Utility [97.01430011496576]
対話エージェントに精神状態と実用性モデルを取り入れることを提案する。
ハイブリッド精神状態は、対話とイベント観察の両方から情報を抽出する。
ユーティリティモデルは、クラウドソースのソーシャルコモンセンスデータセットから人間の好みを学習するランキングモデルである。
論文 参考訳(メタデータ) (2021-03-12T00:06:51Z) - Indecision Modeling [50.00689136829134]
AIシステムは人間の価値観に合わせて行動することが重要である。
人々はしばしば決定的ではなく、特に彼らの決定が道徳的な意味を持つときです。
論文 参考訳(メタデータ) (2020-12-15T18:32:37Z) - Social Choice with Changing Preferences: Representation Theorems and
Long-Run Policies [0.0]
社会的選択論からの表現定理が最適政策を特徴づけるためにどのように適応できるかを示す。
本稿では,社会選択論の功利主義的社会福祉機能に適合するMDP報酬関数の公理的特性について述べる。
論文 参考訳(メタデータ) (2020-11-04T21:21:04Z) - Decentralized Reinforcement Learning: Global Decision-Making via Local
Economic Transactions [80.49176924360499]
我々は、シーケンシャルな意思決定問題を解決するために、単純で専門的で自己関心のあるエージェントの社会を指示する枠組みを確立する。
我々は分散強化学習アルゴリズムのクラスを導出する。
我々は、より効率的な移動学習のための社会固有のモジュラー構造の潜在的な利点を実証する。
論文 参考訳(メタデータ) (2020-07-05T16:41:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。