論文の概要: Linear Contracts in Multitasking: Robustness, Uniformity, and Learning
- arxiv url: http://arxiv.org/abs/2405.20642v2
- Date: Mon, 10 Mar 2025 04:55:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:43:51.882266
- Title: Linear Contracts in Multitasking: Robustness, Uniformity, and Learning
- Title(参考訳): マルチタスクにおける線形契約:ロバスト性、一様性、学習
- Authors: Shiliang Zuo,
- Abstract要約: 線形契約の特殊クラスを, 堅牢性, 均一性, 学習の3つの視点から検討する。
オフライン環境で最適契約パラメータを推定したり、オンライン環境で最適契約を学習したりするためのインストゥルメンタル回帰手法を提案する。
- 参考スコア(独自算出の注目度): 2.296475290901356
- License:
- Abstract: In this work, we study the multitasking principal-agent problem. The agent performs several task for the principal, and the principal posts a contract incentivizing the agent to exert effort. The principal can observe a signal for each task, and the contract is a mapping from the space of possible signals to a payment. We study the special class of linear contracts from three perspectives: robustness, uniformity, and learning. Firstly, we show a robustness result: in an ambiguous setting when only first moment information is known, there is a linear contract maximizing the principal's payoff in a worst-case scenario. Secondly, we show a uniformity result: when the agent's cost function is homogeneous to a certain degree and the the principal's utility takes a linear form across tasks, then the optimal contract depends on the agent's cost function only through its homogeneuity degree. Thirdly, we study the problem of learning an optimal linear contract through observational data. We identify this as an measurement error model, and propose instrumental regression methods to estimate the optimal contract parameters in an offline setting, or to learn the optimal contract in an online setting.
- Abstract(参考訳): 本研究では,マルチタスク・プリンシパル・エージェント問題について検討する。
エージェントは、プリンシパルのためにいくつかのタスクを実行し、プリンシパルは、エージェントに努力するインセンティブを与える契約をポストする。
プリンシパルは各タスクの信号を観察し、契約は可能な信号の空間から支払いへのマッピングである。
線形契約の特殊クラスを, 堅牢性, 均一性, 学習の3つの視点から検討する。
まず、まず第一モーメント情報のみを知っていれば、最悪のシナリオでプリンシパルの支払いを最大化する線形契約が存在するという曖昧な状況において、ロバスト性の結果を示す。
第二に、エージェントのコスト関数が一定程度均一であり、プリンシパルの効用がタスク間で線形形式を取るとき、最適契約はエージェントのコスト関数にのみ依存する。
第3に,観測データによる最適線形契約学習の問題について検討する。
我々はこれを測定誤差モデルとして識別し、オフライン環境で最適契約パラメータを推定したり、オンライン環境で最適契約を学習したりするためのインストゥルメンタル回帰手法を提案する。
関連論文リスト
- New Perspectives in Online Contract Design [2.296475290901356]
本研究は, オンライン学習の観点から, 繰り返し主エージェント問題について考察する。
プリンシパルの目標は、反復的な相互作用を通じて彼女の効用を最大化する最適な契約を学ぶことである。
論文 参考訳(メタデータ) (2024-03-11T20:28:23Z) - Online non-parametric likelihood-ratio estimation by Pearson-divergence
functional minimization [55.98760097296213]
iid 観測のペア $(x_t sim p, x'_t sim q)$ が時間の経過とともに観測されるような,オンラインな非パラメトリック LRE (OLRE) のための新しいフレームワークを提案する。
本稿では,OLRE法の性能に関する理論的保証と,合成実験における実証的検証について述べる。
論文 参考訳(メタデータ) (2023-11-03T13:20:11Z) - Multi-task Bias-Variance Trade-off Through Functional Constraints [102.64082402388192]
マルチタスク学習は、多様なタスクによく機能する関数の集合を取得することを目的としている。
本稿では,2つの極端な学習シナリオ,すなわちすべてのタスクに対する単一関数と,他のタスクを無視するタスク固有関数から直感を抽出する。
本稿では,集中関数に対するドメイン固有解を強制する制約付き学習定式化を導入する。
論文 参考訳(メタデータ) (2022-10-27T16:06:47Z) - An Experimental Design Perspective on Model-Based Reinforcement Learning [73.37942845983417]
環境からの状態遷移を観察するのは費用がかかる。
標準RLアルゴリズムは通常、学習するために多くの観測を必要とする。
本稿では,マルコフ決定過程について,状態-作用対がどの程度の情報を提供するかを定量化する獲得関数を提案する。
論文 参考訳(メタデータ) (2021-12-09T23:13:57Z) - Measuring Model Fairness under Noisy Covariates: A Theoretical
Perspective [26.704446184314506]
本研究では,雑音情報に基づく機械学習モデルの公平性の測定問題について検討する。
本稿では, 精度の高い公平性評価が可能な弱い条件を特徴付けることを目的とした理論的解析を行う。
論文 参考訳(メタデータ) (2021-05-20T18:36:28Z) - How to distribute data across tasks for meta-learning? [59.608652082495624]
タスクごとのデータポイントの最適な数は予算に依存しますが、それは大きな予算のためのユニークな一定の値に収束します。
この結果から,データ収集の簡便かつ効率的な手順が示唆された。
論文 参考訳(メタデータ) (2021-03-15T15:38:47Z) - Online Apprenticeship Learning [58.45089581278177]
見習い学習(AL)では、コスト関数にアクセスせずにマルコフ決定プロセス(MDP)が与えられます。
目標は、事前に定義されたコスト関数のセットで専門家のパフォーマンスに一致するポリシーを見つけることです。
ミラー下降型ノンレグレットアルゴリズムを2つ組み合わせることで,OAL問題を効果的に解くことができることを示す。
論文 参考訳(メタデータ) (2021-02-13T12:57:51Z) - Robust Meta-learning for Mixed Linear Regression with Small Batches [34.94138630547603]
大量の小データタスクは、ビッグデータタスクの欠如を補うことができるか?
既存のアプローチでは、そのようなトレードオフは効率よく達成でき、それぞれ$Omega(k1/2)$の例を持つ中規模のタスクの助けを借りることができる。
両シナリオで同時に堅牢なスペクトルアプローチを導入する。
論文 参考訳(メタデータ) (2020-06-17T07:59:05Z) - Hierarchical Reinforcement Learning as a Model of Human Task
Interleaving [60.95424607008241]
我々は、強化学習によって駆動される監督制御の階層モデルを開発する。
このモデルは、タスクインターリービングの既知の経験的効果を再現する。
その結果、階層的RLがタスクインターリービングのもっともらしいモデルとして支持された。
論文 参考訳(メタデータ) (2020-01-04T17:53:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。