論文の概要: Are Bounded Contracts Learnable and Approximately Optimal?
- arxiv url: http://arxiv.org/abs/2402.14486v1
- Date: Thu, 22 Feb 2024 12:19:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-23 15:26:05.456539
- Title: Are Bounded Contracts Learnable and Approximately Optimal?
- Title(参考訳): 境界契約は学習可能で、ほぼ最適か?
- Authors: Yurong Chen, Zhaohua Chen, Xiaotie Deng, and Zhiyi Huang
- Abstract要約: 本稿では,主エージェントが契約を用いてプロジェクトに取り組む動機付けを行う,主エージェント問題の隠れアクションモデルについて考察する。
本研究では,有界決済契約が学習可能か,ほぼ最適かを検討する。
- 参考スコア(独自算出の注目度): 8.121834515103243
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper considers the hidden-action model of the principal-agent problem,
in which a principal incentivizes an agent to work on a project using a
contract. We investigate whether contracts with bounded payments are learnable
and approximately optimal. Our main results are two learning algorithms that
can find a nearly optimal bounded contract using a polynomial number of
queries, under two standard assumptions in the literature: a costlier action
for the agent leads to a better outcome distribution for the principal, and the
agent's cost/effort has diminishing returns. Our polynomial query complexity
upper bound shows that standard assumptions are sufficient for achieving an
exponential improvement upon the known lower bound for general instances.
Unlike the existing algorithms, which relied on discretizing the contract
space, our algorithms directly learn the underlying outcome distributions. As
for the approximate optimality of bounded contracts, we find that they could be
far from optimal in terms of multiplicative or additive approximation, but
satisfy a notion of mixed approximation.
- Abstract(参考訳): 本稿では,主エージェントが契約を用いてプロジェクトに取り組む動機付けを行う,主エージェント問題の隠れアクションモデルについて考察する。
有界決済契約が学習可能か,ほぼ最適かを検討する。
本研究の主な成果は, 多項式数を用いて, ほぼ最適な有界コントラクトを求めることができる2つの学習アルゴリズムである。 エージェントに対する費用対効果は, プリンシパルに対するより良い結果分布を導き, エージェントのコスト/利益は, リターンを減少させる。
我々の多項式クエリ複雑性上界は、一般的なインスタンスの既知の下界に対する指数的な改善を達成するのに、標準仮定が十分であることを示している。
契約空間の離散化に依存する既存のアルゴリズムとは異なり、我々のアルゴリズムは基礎となる結果分布を直接学習する。
有界契約の近似最適性については、乗法的あるいは加法的近似の観点からは最適とは程遠いが、混合近似の概念を満たすことが分かる。
関連論文リスト
- Sample-efficient Learning of Infinite-horizon Average-reward MDPs with General Function Approximation [53.17668583030862]
一般関数近似の文脈において,無限水平平均逆マルコフ決定過程(AMDP)について検討する。
最適化最適化(LOOP)と呼ばれる新しいアルゴリズムフレームワークを提案する。
我々は LOOP がサブ線形 $tildemathcalO(mathrmpoly(d, mathrmsp(V*)) sqrtTbeta )$ regret を達成することを示す。
論文 参考訳(メタデータ) (2024-04-19T06:24:22Z) - New Perspectives in Online Contract Design [2.296475290901356]
本研究は, オンライン学習の観点から, 繰り返し主エージェント問題について考察する。
プリンシパルの目標は、反復的な相互作用を通じて彼女の効用を最大化する最適な契約を学ぶことである。
論文 参考訳(メタデータ) (2024-03-11T20:28:23Z) - Variance-Aware Regret Bounds for Stochastic Contextual Dueling Bandits [53.281230333364505]
本稿では, 一般化線形モデル(GLM)から, デュエルアームのバイナリ比較を生成するコンテキストデュエルバンド問題について検討する。
本稿では,SupLinUCB型アルゴリズムを提案する。このアルゴリズムは,計算効率と分散を意識したリセットバウンド$tilde Obig(dsqrtsum_t=1Tsigma_t2 + dbig)$を提案する。
我々の後悔は、比較が決定論的である場合の直感的な期待と自然に一致し、アルゴリズムは$tilde O(d)$ regretにのみ悩まされる。
論文 参考訳(メタデータ) (2023-10-02T08:15:52Z) - Multi-Agent Bayesian Optimization with Coupled Black-Box and Affine
Constraints [21.38692458445459]
ブラックボックス制約と既知のアフィン制約を結合した分散マルチエージェントベイズ最適化の問題について検討する。
単一エージェントの場合と同様の後悔/違反境界を実現するアルゴリズムが提案されている。
論文 参考訳(メタデータ) (2023-10-02T08:07:36Z) - Learning Optimal Contracts: How to Exploit Small Action Spaces [37.92189925462977]
本稿では、主目的が結果依存の支払い方式にコミットする主目的問題について検討する。
約最適契約を高い確率で学習するアルゴリズムを設計する。
また、関連するオンライン学習環境において、$tildemathcalO(T4/5)$ regret を提供するためにも使用できる。
論文 参考訳(メタデータ) (2023-09-18T14:18:35Z) - Human-in-the-loop: Provably Efficient Preference-based Reinforcement
Learning with General Function Approximation [107.54516740713969]
本研究は,RL(Human-in-the-loop reinforcement learning)を軌道的嗜好で検討する。
各ステップで数値的な報酬を受ける代わりに、エージェントは人間の監督者から軌道上のペアよりも優先される。
一般関数近似を用いたPbRLの楽観的モデルベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-23T09:03:24Z) - Bayesian decision-making under misspecified priors with applications to
meta-learning [64.38020203019013]
トンプソンサンプリングやその他のシーケンシャルな意思決定アルゴリズムは、文脈的包帯における探索と探索のトレードオフに取り組むための一般的なアプローチである。
性能は不特定な事前条件で優雅に低下することを示す。
論文 参考訳(メタデータ) (2021-07-03T23:17:26Z) - Navigating to the Best Policy in Markov Decision Processes [68.8204255655161]
マルコフ決定過程における純粋探索問題について検討する。
エージェントはアクションを逐次選択し、結果のシステム軌道から可能な限り早くベストを目標とする。
論文 参考訳(メタデータ) (2021-06-05T09:16:28Z) - The Price of Incentivizing Exploration: A Characterization via Thompson
Sampling and Sample Complexity [83.81297078039836]
インセンティブ付き探索(Incentivized Exploring)は、武器の選択を自給自足エージェントによって制御するマルチアーム・バンディットのバージョンである。
我々は、インセンティブの価格に焦点を合わせ、インセンティブの適合性のために、広く解釈された、パフォーマンスの喪失が引き起こされる。
論文 参考訳(メタデータ) (2020-02-03T04:58:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。