論文の概要: Harnessing the Continuous Structure: Utilizing the First-order Approach in Online Contract Design
- arxiv url: http://arxiv.org/abs/2403.07143v3
- Date: Mon, 09 Jun 2025 20:49:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:38.454355
- Title: Harnessing the Continuous Structure: Utilizing the First-order Approach in Online Contract Design
- Title(参考訳): 継続的構造を損なう - オンライン契約設計における一階のアプローチを活用する
- Authors: Shiliang Zuo,
- Abstract要約: 本研究は,オンライン契約設計問題を研究する。
プリンシパルの目標は、反復的な相互作用を通じて彼女の効用を最大化する最適な契約を学ぶことである。
- 参考スコア(独自算出の注目度): 2.296475290901356
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work studies the online contract design problem. The principal's goal is to learn the optimal contract that maximizes her utility through repeated interactions, without prior knowledge of the agent's type (i.e., the agent's cost and production functions). We leverage the structure provided by continuous action spaces, which allows the application of first-order conditions (FOC) to characterize the agent's behavior. In some cases, we utilize conditions from the first-order approach (FOA) in economics, but in certain settings, we are able to apply FOC without additional assumptions, leading to simpler and more principled algorithms. We illustrate this approach in three problem settings. Firstly, we study the problem of learning the optimal contract when there can be many outcomes. In contrast to prior works that design highly specialized algorithms, we show that the problem can be directly reduced to Lipschitz bandits. Secondly, we study the problem of learning linear contracts. While the contracting problem involves hidden action (moral hazard) and the pricing problem involves hidden value (adverse selection), the two problems share a similar optimization structure, which enables direct reduction between the problem of learning linear contracts and dynamic pricing. Thirdly, we study the problem of learning contracts with many outcomes when agents are identical and provide an algorithm with polynomial sample complexity.
- Abstract(参考訳): 本研究は,オンライン契約設計問題を研究する。
プリンシパルの目標は、エージェントのタイプ(すなわちエージェントのコストと生産機能)を事前に知ることなく、反復的な相互作用を通じて彼女の効用を最大化する最適な契約を学習することである。
我々は連続的な行動空間によって提供される構造を活用し、エージェントの振る舞いを特徴付けるために一階条件(FOC)を適用できる。
いくつかのケースでは、経済学における一階法(FOA)の条件を利用するが、ある設定では、追加の仮定なしでFOCを適用することができ、より単純でより原理化されたアルゴリズムが導かれる。
このアプローチを3つの問題設定で説明します。
まず,多くの結果が得られる場合に最適な契約を学習する問題を考察する。
高度に専門化されたアルゴリズムを設計する以前の研究とは対照的に、この問題を直接リプシッツの帯域に還元できることが示されている。
次に,線形契約学習の問題について検討する。
契約問題には隠れアクション(モラルハザード)が関係し、価格問題には隠れ値(逆選択)が関係するが、この2つの問題は類似した最適化構造を共有しており、線形契約の学習と動的価格の直接的な低減を可能にする。
第3に,エージェントが同一である場合,多くの結果からコントラクトを学習する問題について検討し,多項式サンプルの複雑性を持つアルゴリズムを提案する。
関連論文リスト
- The Pseudo-Dimension of Contracts [8.710927418537908]
アルゴリズム契約設計は、主任がエージェントに彼女の代理として努力するよう動機付けるシナリオを研究する。
本研究では,エージェントの型が未知の分布から引き出される設定と,サンプルエージェントの型から最適に近いコントラクトを学習するためのオフライン学習フレームワークに焦点を当てる。
我々の分析における中心的なツールは、統計学習理論からの擬似次元の概念である。
論文 参考訳(メタデータ) (2025-01-24T13:13:50Z) - Contractual Reinforcement Learning: Pulling Arms with Invisible Hands [68.77645200579181]
本稿では,契約設計によるオンライン学習問題において,利害関係者の経済的利益を整合させる理論的枠組みを提案する。
計画問題に対して、遠目エージェントに対する最適契約を決定するための効率的な動的プログラミングアルゴリズムを設計する。
学習問題に対して,契約の堅牢な設計から探索と搾取のバランスに至るまでの課題を解き放つために,非回帰学習アルゴリズムの汎用設計を導入する。
論文 参考訳(メタデータ) (2024-07-01T16:53:00Z) - Principal-Agent Multitasking: the Uniformity of Optimal Contracts and its Efficient Learning via Instrumental Regression [2.296475290901356]
本研究はマルチタスクプライマリエージェント問題を研究する。
私はまず一様性の結果を示します。
次に、各タスクの限界効用が不明な環境で研究します。
論文 参考訳(メタデータ) (2024-05-31T07:01:49Z) - On the Necessity of Collaboration for Online Model Selection with Decentralized Data [53.244188985271606]
我々は,100万ドル以上の分散データを用いたオンラインモデル選択について検討し,クライアント間のコラボレーションの必要性について検討する。
i) クライアント上の計算コストが$o(K)$に制限された場合, (ii) クライアント上での計算制約がない場合, (i) 協調は不要であり, (ii) クライアント上での計算コストは$o(K)$に制限される。
論文 参考訳(メタデータ) (2024-04-15T06:32:28Z) - Are Bounded Contracts Learnable and Approximately Optimal? [8.121834515103243]
本稿では,主エージェントが契約を用いてプロジェクトに取り組む動機付けを行う,主エージェント問題の隠れアクションモデルについて考察する。
本研究では,有界決済契約が学習可能か,ほぼ最適かを検討する。
論文 参考訳(メタデータ) (2024-02-22T12:19:19Z) - Contracting with a Learning Agent [32.950708673180436]
本研究では,学習エージェントとの繰り返し契約に関する研究を行い,結果が得られないエージェントに着目した。
我々は、複数のアクション間のエージェントの選択が成功/失敗に繋がる正準契約設定において、この問題に対する最適解を実現する。
我々の結果は、成功/失敗を超えて、プリンシパルが動的に再スケールする任意の非線形契約に一般化される。
論文 参考訳(メタデータ) (2024-01-29T14:53:22Z) - Delegating Data Collection in Decentralized Machine Learning [67.0537668772372]
分散機械学習(ML)エコシステムの出現に動機付けられ,データ収集のデリゲートについて検討する。
我々は、2つの基本的な情報非対称性を扱う最適でほぼ最適な契約を設計する。
最適効用の1-1/e分を達成できるような単純な線形契約により、主成分がそのような非対称性に対処できることが示される。
論文 参考訳(メタデータ) (2023-09-04T22:16:35Z) - Delegated Classification [21.384062337682185]
機械学習タスクのインセンティブ対応デリゲーションに関する理論的枠組みを提案する。
予算最適契約を定義し、合理的な仮定の下で単純なしきい値を取ることを証明します。
実証的に、我々は予算最適契約を小規模データを用いて構築できることを実証した。
論文 参考訳(メタデータ) (2023-06-20T11:59:03Z) - Learning to Incentivize Information Acquisition: Proper Scoring Rules
Meet Principal-Agent Model [64.94131130042275]
インセンティブ付き情報取得問題について検討し、主治官がエージェントを雇って代理情報を収集する。
UCBアルゴリズムをモデルに適合させる,実証可能なサンプル効率の良いアルゴリズムを設計する。
本アルゴリズムは,主役の最適利益に対する微妙な推定手順と,所望のエージェントの行動にインセンティブを与える保守的な補正手法を特徴とする。
論文 参考訳(メタデータ) (2023-03-15T13:40:16Z) - Collective eXplainable AI: Explaining Cooperative Strategies and Agent
Contribution in Multiagent Reinforcement Learning with Shapley Values [68.8204255655161]
本研究は,シェープリー値を用いたマルチエージェントRLにおける協調戦略を説明するための新しい手法を提案する。
結果は、差別的でない意思決定、倫理的かつ責任あるAI由来の意思決定、公正な制約の下での政策決定に影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2021-10-04T10:28:57Z) - Online Apprenticeship Learning [58.45089581278177]
見習い学習(AL)では、コスト関数にアクセスせずにマルコフ決定プロセス(MDP)が与えられます。
目標は、事前に定義されたコスト関数のセットで専門家のパフォーマンスに一致するポリシーを見つけることです。
ミラー下降型ノンレグレットアルゴリズムを2つ組み合わせることで,OAL問題を効果的に解くことができることを示す。
論文 参考訳(メタデータ) (2021-02-13T12:57:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。