論文の概要: Learning Aggregation Rules in Participatory Budgeting: A Data-Driven Approach
- arxiv url: http://arxiv.org/abs/2412.01864v1
- Date: Sun, 01 Dec 2024 18:13:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:51:45.243285
- Title: Learning Aggregation Rules in Participatory Budgeting: A Data-Driven Approach
- Title(参考訳): 参加予算における集約ルールの学習--データ駆動型アプローチ
- Authors: Roy Fairstein, Dan Vilenchik, Kobi Gal,
- Abstract要約: PB(Participatory Budgeting)は、様々なプロジェクトを通じて公共資金を配分する民主的なプロセスを提供する。
PBのオーガナイザは、文献に精通していないか、あるいは既存のルールが期待を反映していないため、アグリゲーションルールを選択する際の課題に直面している。
本稿では,この課題に対処するために機械学習を利用した新しいデータ駆動手法を提案する。
- 参考スコア(独自算出の注目度): 8.93709693107744
- License:
- Abstract: Participatory Budgeting (PB) offers a democratic process for communities to allocate public funds across various projects through voting. In practice, PB organizers face challenges in selecting aggregation rules either because they are not familiar with the literature and the exact details of every existing rule or because no existing rule echoes their expectations. This paper presents a novel data-driven approach utilizing machine learning to address this challenge. By training neural networks on PB instances, our approach learns aggregation rules that balance social welfare, representation, and other societal beneficial goals. It is able to generalize from small-scale synthetic PB examples to large, real-world PB instances. It is able to learn existing aggregation rules but also generate new rules that adapt to diverse objectives, providing a more nuanced, compromise-driven solution for PB processes. The effectiveness of our approach is demonstrated through extensive experiments with synthetic and real-world PB data, and can expand the use and deployment of PB solutions.
- Abstract(参考訳): PB(Participatory Budgeting)は、様々なプロジェクトを通じて公共資金を配分する民主的なプロセスを提供する。
実際には、PBのオーガナイザは、既存のルールの文献や詳細をよく知らないか、あるいは既存のルールが期待を反映していないため、アグリゲーションルールを選択する際の課題に直面している。
本稿では,この課題に対処するために機械学習を利用した新しいデータ駆動手法を提案する。
PBインスタンス上でニューラルネットワークをトレーニングすることにより、社会福祉、表現、その他の社会的利益目標のバランスをとるアグリゲーションルールを学習する。
小規模な合成PBの例から、大規模な実世界のPBインスタンスまでを一般化することができる。
既存のアグリゲーションルールを学習できるだけでなく、さまざまな目的に適応する新しいルールを生成することができ、PBプロセスに対してよりニュアンスで妥協駆動のソリューションを提供する。
提案手法の有効性は, 合成および実世界のPBデータを用いた広範な実験により実証され, PBソリューションの利用と展開を拡大することができる。
関連論文リスト
- DeepVoting: Learning Voting Rules with Tailored Embeddings [13.037431161285971]
我々は、よい投票規則を設計する問題は、投票規則の確率的なバージョンを学ぶことの1つに再キャストする。
社会的選択文献からの選好プロファイルの埋め込みにより,既存の投票ルールをより効率的に学習できることを示す。
また、埋め込みを用いて学習したルールを微調整して、公理特性を改善した新しい投票ルールを作成することも示している。
論文 参考訳(メタデータ) (2024-08-24T17:15:20Z) - Personalized Reinforcement Learning with a Budget of Policies [9.846353643883443]
機械学習(ML)におけるパーソナライゼーションは、ユーザの個々の特性に対する決定をモデル化する。
本稿では,Markov Decision Processes (r-MDPs) に代表される新しいフレームワークを提案する。
r-MDPでは、少数の代表ポリシーとのインタラクションを通じて、それぞれ独自の嗜好を持つ多様なユーザ人口に対応する。
r-MDPを効率的に解くための2つの深層強化学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-01-12T11:27:55Z) - Abstracting Concept-Changing Rules for Solving Raven's Progressive
Matrix Problems [54.26307134687171]
Raven's Progressive Matrix (RPM) は、候補者の中から選択することで、機械知能においてそのような能力を実現する古典的なテストである。
近年の研究では、RPMの解法はルールの深い理解を促進することが示唆されている。
本稿では、解釈可能な概念を学習し、潜在空間における概念変更ルールを解析することにより、概念変更ルールABstraction(CRAB)の潜時変数モデルを提案する。
論文 参考訳(メタデータ) (2023-07-15T07:16:38Z) - Goal-Conditioned Imitation Learning using Score-based Diffusion Policies [3.49482137286472]
スコアベース拡散モデル(SDM)に基づく新しいポリシー表現を提案する。
我々はゴール・コンディションド・イミテーション・ラーニング(GCIL)の領域に新しい政策表現を適用した。
直感的なガイダンスを用いて,遊びデータから目標に依存しないポリシーを学習するためにBESOをどのように利用できるかを示す。
論文 参考訳(メタデータ) (2023-04-05T15:52:34Z) - Machine Learning with Probabilistic Law Discovery: A Concise
Introduction [77.34726150561087]
Probabilistic Law Discovery (PLD) は、確率論的ルール学習の変種を実装した論理ベースの機械学習手法である。
PLDはDecision Tree/Random Forestメソッドに近いが、関連するルールの定義方法に大きく異なる。
本稿はPLDの主な原則を概説し、その利点と限界を強調し、いくつかのアプリケーションガイドラインを提供する。
論文 参考訳(メタデータ) (2022-12-22T17:40:13Z) - PBRE: A Rule Extraction Method from Trained Neural Networks Designed for
Smart Home Services [2.599882743586164]
PBREは、スマートホームシステムのための動的ルール生成を実現するための学習方法からルールを抽出する。
NRL(Neural Network-based Reinforcement Learning)で表されるスマートホームサービスから規則を抽出するためにPBREを適用する。
論文 参考訳(メタデータ) (2022-07-18T05:19:24Z) - A Survey on Programmatic Weak Supervision [74.13976343129966]
本稿では、PWS学習パラダイムの簡単な紹介と、各PWS学習ワークフローに対する代表的アプローチのレビューを行う。
この分野の今後の方向性に刺激を与えるために、この分野でまだ探索されていないいくつかの重要な課題を特定します。
論文 参考訳(メタデータ) (2022-02-11T04:05:38Z) - Constructing a Good Behavior Basis for Transfer using Generalized Policy
Updates [63.58053355357644]
そこで我々は,優れた政策集合を学習する問題を考察し,組み合わせることで,目に見えない多種多様な強化学習タスクを解くことができることを示した。
理論的には、独立したポリシーのセットと呼ぶ、特定の多様なポリシーのセットにアクセスできることによって、ハイレベルなパフォーマンスを即時に達成できることが示される。
論文 参考訳(メタデータ) (2021-12-30T12:20:46Z) - Learning to Synthesize Programs as Interpretable and Generalizable
Policies [25.258598215642067]
本稿では,プログラムの合成を学習するフレームワークについて述べる。
実験の結果,提案フレームワークは,タスク解決プログラムを確実に合成するだけでなく,DRLやプログラム合成ベースラインよりも優れていることがわかった。
論文 参考訳(メタデータ) (2021-08-31T07:03:06Z) - Scalable Bayesian Inverse Reinforcement Learning [93.27920030279586]
我々はAVRIL(Adroximate Variational Reward Imitation Learning)を紹介する。
本手法は,逆強化学習問題の誤った性質に対処する。
本手法を従来の制御シミュレーションと並行して実際の医療データに適用し,現在の手法の範囲を超えた環境におけるベイズ報酬推論を実証する。
論文 参考訳(メタデータ) (2021-02-12T12:32:02Z) - Hierarchical Variational Imitation Learning of Control Programs [131.7671843857375]
パラメータ化された階層的手順(PHP)で表される制御ポリシーの模倣学習のための変分推論手法を提案する。
本手法は, 教師による実演の観察・行動トレースのデータセットにおける階層構造を, 手続き呼び出しや用語の待ち行列に近似した後続分布を学習することによって発見する。
階層的模倣学習(hierarchical mimicion learning)の文脈における変分推論の新たな利点を実証する。
論文 参考訳(メタデータ) (2019-12-29T08:57:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。