論文の概要: Regularized Proportional Fairness Mechanism for Resource Allocation Without Money
- arxiv url: http://arxiv.org/abs/2501.01111v1
- Date: Thu, 02 Jan 2025 07:17:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-05 17:12:05.482426
- Title: Regularized Proportional Fairness Mechanism for Resource Allocation Without Money
- Title(参考訳): 金のない資源配分のための正規化比例フェアネス機構
- Authors: Sihan Zeng, Sujay Bhatt, Alec Koppel, Sumitra Ganesh,
- Abstract要約: 我々は資源配分問題に合わせた革新的なニューラルネットワークアーキテクチャを設計し、それを正規化比例公正ネットワーク(RPF-Net)と呼ぶ。
RPF-Netは、最も悪用可能なアロケーションの学習関数近似器により、比例フェアネス(PF)機構の出力を正規化する。
有限分布および外分布サンプル下での学習時の機構性能を保証する一般化境界を導出する。
- 参考スコア(独自算出の注目度): 18.593061465167363
- License:
- Abstract: Mechanism design in resource allocation studies dividing limited resources among self-interested agents whose satisfaction with the allocation depends on privately held utilities. We consider the problem in a payment-free setting, with the aim of maximizing social welfare while enforcing incentive compatibility (IC), i.e., agents cannot inflate allocations by misreporting their utilities. The well-known proportional fairness (PF) mechanism achieves the maximum possible social welfare but incurs an undesirably high exploitability (the maximum unilateral inflation in utility from misreport and a measure of deviation from IC). In fact, it is known that no mechanism can achieve the maximum social welfare and exact incentive compatibility (IC) simultaneously without the use of monetary incentives (Cole et al., 2013). Motivated by this fact, we propose learning an approximate mechanism that desirably trades off the competing objectives. Our main contribution is to design an innovative neural network architecture tailored to the resource allocation problem, which we name Regularized Proportional Fairness Network (RPF-Net). RPF-Net regularizes the output of the PF mechanism by a learned function approximator of the most exploitable allocation, with the aim of reducing the incentive for any agent to misreport. We derive generalization bounds that guarantee the mechanism performance when trained under finite and out-of-distribution samples and experimentally demonstrate the merits of the proposed mechanism compared to the state-of-the-art.
- Abstract(参考訳): 資源割り当て研究におけるメカニズム設計は、自己関心のあるエージェント間で限られたリソースを分割し、その割り当てに対する満足度は私有のユーティリティに依存している。
我々は、社会福祉を最大化しつつ、インセンティブ適合(IC)を強制する目的で、支払い不要な環境での問題を考える。
良く知られた比例公正(PF)メカニズムは、可能な限りの社会福祉を達成するが、望ましくないほど高い搾取性(誤レポートによるユーティリティの最大片側インフレーションとICからの逸脱の尺度)を引き起こす。
実際、金融インセンティブを使わずに、最大社会福祉と正確なインセンティブ適合(IC)を同時に達成できるメカニズムは存在しないことが知られている(Cole et al , 2013)。
この事実に触発されて、我々は、競合する目的を好意的に取り除く、近似的なメカニズムを学ぶことを提案する。
我々の主な貢献は、リソース割り当て問題に合わせた革新的なニューラルネットワークアーキテクチャを設計することであり、このアーキテクチャをRegularized Proportional Fairness Network(RPF-Net)と呼ぶ。
RPF-Netは、最も悪用可能なアロケーションの学習関数近似器によってPF機構の出力を正規化し、エージェントが誤レポートするインセンティブを減らすことを目的としている。
有限分布および外分布サンプル下での学習時の機構性能を保証する一般化境界を導出し,提案機構の利点を最先端技術と比較して実験的に実証する。
関連論文リスト
- Learning Fair and Preferable Allocations through Neural Network [24.15688619889342]
我々は、専門家の知識を複製することで、優れた特性を厳密に満たすメカニズムを設計することを目指している。
形式的アルゴリズムは望ましい結果を見つけるのに苦労し、これらの暗黙の規則を直接複製することは不公平な割り当てをもたらす。
我々は、RRをパラメータ化し、RRに使用するエージェント注文を学習できるようにトレーニングできるニューラルネットワークを開発した。
論文 参考訳(メタデータ) (2024-10-23T01:47:55Z) - Deep Learning Meets Mechanism Design: Key Results and Some Novel
Applications [1.2661010067882734]
本稿では、関連する文献から、深層学習を用いたメカニズム設計の技術的詳細について述べる。
本稿では,3つのケーススタディにおいて,このアプローチのパワーを実証する。
論文 参考訳(メタデータ) (2024-01-11T06:09:32Z) - Learning Payment-Free Resource Allocation Mechanisms [19.60309632660988]
ニューラルネットワークを用いた自己関心エージェント間のリソース制限機構の設計について検討する。
支払いなしのメカニズム設計に"マネーバーニング"というアイデアを取り入れた、新たなエンドツーエンドニューラルネットワークアーキテクチャであるExS-Netをコントリビュートしています。
論文 参考訳(メタデータ) (2023-11-18T01:21:54Z) - Refined Mechanism Design for Approximately Structured Priors via Active
Regression [50.71772232237571]
我々は、大量の商品を戦略的入札者に販売する収益を最大化する販売業者の問題を考える。
この設定の最適かつほぼ最適のメカニズムは、特徴付けや計算が難しいことで有名である。
論文 参考訳(メタデータ) (2023-10-11T20:34:17Z) - Benefits of Permutation-Equivariance in Auction Mechanisms [90.42990121652956]
競売人の収益を最大化しつつ、競売人の過去の後悔を最小限にする競売メカニズムは、経済学において重要であるが複雑な問題である。
ニューラルネットワークによる最適なオークションメカニズムの学習を通じて、注目すべき進歩が達成されている。
論文 参考訳(メタデータ) (2022-10-11T16:13:25Z) - Monotonic Improvement Guarantees under Non-stationarity for
Decentralized PPO [66.5384483339413]
我々は,MARL(Multi-Agent Reinforcement Learning)における分散政策の最適化のための新しい単調改善保証を提案する。
本研究では,訓練中のエージェント数に基づいて,独立した比率を限定することにより,信頼領域の制約を原則的に効果的に実施可能であることを示す。
論文 参考訳(メタデータ) (2022-01-31T20:39:48Z) - Strategyproof and Proportionally Fair Facility Location [77.16035689756859]
簡単な1次元集団決定問題(しばしば施設配置問題と呼ばれる)に焦点を当てる。
比例に基づく様々な強度のフェアネス公理の階層構造を解析する。
各公理に対して、公理と戦略の安全性を満足するメカニズムのファミリーを特徴付ける。
論文 参考訳(メタデータ) (2021-11-02T12:41:32Z) - Online Learning of Competitive Equilibria in Exchange Economies [94.24357018178867]
経済学では、複数の有理エージェント間の資源不足の共有は古典的な問題である。
エージェントの好みを学習するためのオンライン学習機構を提案する。
数値シミュレーションにより,本機構の有効性を実証する。
論文 参考訳(メタデータ) (2021-06-11T21:32:17Z) - Cursed yet Satisfied Agents [15.104201344012344]
勝者の高い入札は、勝者が売り物の価値を過大評価し、結果として負の効用が生じることを意味する。
呪われても真の信号を入札するようにエージェントにインセンティブを与えるメカニズムを提案します。
論文 参考訳(メタデータ) (2021-04-02T01:15:53Z) - VCG Mechanism Design with Unknown Agent Values under Stochastic Bandit
Feedback [104.06766271716774]
本研究では,エージェントが自己の価値を知らない場合に,マルチラウンドの福祉最大化機構設計問題について検討する。
まず、福祉に対する後悔の3つの概念、各エージェントの個々のユーティリティ、メカニズムの3つの概念を定義します。
当社のフレームワークは価格体系を柔軟に制御し、エージェントと販売者の後悔のトレードオフを可能にする。
論文 参考訳(メタデータ) (2020-04-19T18:00:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。