論文の概要: Facilitating Matches on Allocation Platforms
- arxiv url: http://arxiv.org/abs/2508.18325v1
- Date: Sun, 24 Aug 2025 17:27:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.527911
- Title: Facilitating Matches on Allocation Platforms
- Title(参考訳): 配置プラットフォーム上でのマッチングのファシリテート
- Authors: Yohai Trabelsi, Abhijin Adiga, Yonatan Aumann, Sarit Kraus, S. S. Ravi,
- Abstract要約: 我々は、アロケーションプラットフォーム(例えば、マッチングプラットフォーム)を介して、エージェントに商品を割り当てる設定について検討する。
割当てファシリテータ'は、(一部の)エージェントに制限を緩和(一部)するよう促すことにより、割当ての全体的な実用性/社会的利益を高めることを目的としている。
同時に、このアドバイスは、さもなくば改善されるであろうエージェントを傷つけてはならない。
- 参考スコア(独自算出の注目度): 32.065858019695035
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider a setting where goods are allocated to agents by way of an allocation platform (e.g., a matching platform). An ``allocation facilitator'' aims to increase the overall utility/social-good of the allocation by encouraging (some of the) agents to relax (some of) their restrictions. At the same time, the advice must not hurt agents who would otherwise be better off. Additionally, the facilitator may be constrained by a ``bound'' (a.k.a. `budget'), limiting the number and/or type of restrictions it may seek to relax. We consider the facilitator's optimization problem of choosing an optimal set of restrictions to request to relax under the aforementioned constraints. Our contributions are three-fold: (i) We provide a formal definition of the problem, including the participation guarantees to which the facilitator should adhere. We define a hierarchy of participation guarantees and also consider several social-good functions. (ii) We provide polynomial algorithms for solving various versions of the associated optimization problems, including one-to-one and many-to-one allocation settings. (iii) We demonstrate the benefits of such facilitation and relaxation, and the implications of the different participation guarantees, using extensive experimentation on three real-world datasets.
- Abstract(参考訳): 本稿では,アロケーションプラットフォーム(例えば,マッチングプラットフォーム)を用いて,商品をエージェントに割り当てる環境について考察する。
割り当てファシリテータ’は、(一部の)エージェントに対して、制限の緩和(一部)を奨励することによって、アロケーションの全体的なユーティリティ/社会的な利益を高めることを目的としている。
同時に、このアドバイスは、さもなくば改善されるであろうエージェントを傷つけてはならない。
さらに、ファシリテーターは `bound' (つまり `budget') によって制限され、緩和しようとする数や種類の制限が制限される。
我々は、上記の制約の下で緩和を求めるための最適な制約セットを選択するファシリテータの最適化問題を考察する。
私たちの貢献は3倍です。
一 ファシリテーターが従うべき参加保証を含む。
我々は、参加保証の階層を定義し、また、いくつかの社会的良い機能についても検討する。
(II) 1対1と複数対1のアロケーション設定を含む,関連する最適化問題の様々なバージョンを解くための多項式アルゴリズムを提供する。
(3)3つの実世界のデータセットを広範囲に実験することにより,このような円滑化と緩和のメリットと,参加保証の相違がもたらす影響を実証する。
関連論文リスト
- From Individual to Multi-Agent Algorithmic Recourse: Minimizing the Welfare Gap via Capacitated Bipartite Matching [9.37591403853433]
本稿では,マルチエージェント・アルゴリズム・リコースのための新しいフレームワークを提案する。
我々のフレームワークは,システム設定に最小限の修正を加えて,多対多のアルゴリズムでほぼ最適の福祉を実現することができる。
論文 参考訳(メタデータ) (2025-08-14T21:04:24Z) - Autoregressive Policy Optimization for Constrained Allocation Tasks [4.316765170255551]
本稿では,各エンティティのアロケーションを逐次サンプリングする自己回帰プロセスに基づく制約付きアロケーションタスクの新しい手法を提案する。
さらに, 逐次サンプリングによる初期バイアスに対処する新しい脱バイアス機構を提案する。
論文 参考訳(メタデータ) (2024-09-27T13:27:15Z) - Learning Actionable Counterfactual Explanations in Large State Spaces [16.30292272064278]
実世界の行動に根ざした3つの談話型を紹介する。
高レベル連続(emphhl-continuous)、高レベル離散(emphhl-discrete)、高レベルID(emphhl-id)CFE。
論文 参考訳(メタデータ) (2024-04-25T20:49:03Z) - Resilient Constrained Reinforcement Learning [87.4374430686956]
本稿では,複数の制約仕様を事前に特定しない制約付き強化学習(RL)のクラスについて検討する。
報酬訓練目標と制約満足度との間に不明確なトレードオフがあるため、適切な制約仕様を特定することは困難である。
我々は、ポリシーと制約仕様を一緒に検索する新しい制約付きRLアプローチを提案する。
論文 参考訳(メタデータ) (2023-12-28T18:28:23Z) - Resource Allocation to Agents with Restrictions: Maximizing Likelihood
with Minimum Compromise [28.2469613376685]
原理は、各エージェントが何らかの確率でリソースにマッチするように、ランダムに最大マッチングを選択することを示す。
エージェントは、制限を一定の範囲内で変更することで、マッチする可能性を改善したいと考えています。
本研究では,合成データセットと2つの新しい実世界のデータセットについて実験的に評価した。
論文 参考訳(メタデータ) (2022-09-12T11:58:19Z) - Algorithm for Constrained Markov Decision Process with Linear
Convergence [55.41644538483948]
エージェントは、そのコストに対する複数の制約により、期待される累積割引報酬を最大化することを目的としている。
エントロピー正規化ポリシーとベイダの二重化という2つの要素を統合した新しい双対アプローチが提案されている。
提案手法は(線形速度で)大域的最適値に収束することが示されている。
論文 参考訳(メタデータ) (2022-06-03T16:26:38Z) - Penalized Proximal Policy Optimization for Safe Reinforcement Learning [68.86485583981866]
本稿では、等価な制約のない問題の単一最小化により、煩雑な制約付きポリシー反復を解決するP3Oを提案する。
P3Oは、コスト制約を排除し、クリップされたサロゲート目的による信頼領域制約を除去するために、単純なyet効果のペナルティ関数を利用する。
P3Oは,一連の制約された機関車作業において,報酬改善と制約満足度の両方に関して,最先端のアルゴリズムより優れていることを示す。
論文 参考訳(メタデータ) (2022-05-24T06:15:51Z) - A Globally Convergent Evolutionary Strategy for Stochastic Constrained
Optimization with Applications to Reinforcement Learning [0.6445605125467573]
進化的戦略は、強化学習における複雑な最適化問題に対して、競合する性能のレベルを達成することが示されている。
しかし、制約された問題を最適化する進化戦略の収束保証は文献に欠けている。
論文 参考訳(メタデータ) (2022-02-21T17:04:51Z) - Public Bayesian Persuasion: Being Almost Optimal and Almost Persuasive [57.47546090379434]
i) 任意の状態空間, (ii) 任意の行動空間, (iii) 任意の送信者のユーティリティ関数を用いて, 一般の状況下での公衆の説得問題を考察する。
任意の公的な説得問題に対して準多項式時間ビクテリア近似アルゴリズムを提案し、特定の設定でQPTASを出力する。
論文 参考訳(メタデータ) (2020-02-12T18:59:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。