論文の概要: Learning and Strongly Truthful Multi-Task Peer Prediction: A Variational
Approach
- arxiv url: http://arxiv.org/abs/2009.14730v1
- Date: Wed, 30 Sep 2020 15:09:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 00:31:14.416832
- Title: Learning and Strongly Truthful Multi-Task Peer Prediction: A Variational
Approach
- Title(参考訳): 学習と強真正なマルチタスクピア予測--変分的アプローチ
- Authors: Grant Schoenebeck and Fang-Yi Yu
- Abstract要約: 我々は、レポートのペアをスコアにマッピングするスコア関数を持つメカニズムのファミリーを設計する。
異なる種類の先行作業に必要なタスク数に対して、適切な境界を導出する方法を示す。
これはマルチタスク設定用に設計された連続信号に対する最初のピア予測機構である。
- 参考スコア(独自算出の注目度): 8.932080210400535
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Peer prediction mechanisms incentivize agents to truthfully report their
signals even in the absence of verification by comparing agents' reports with
those of their peers. In the detail-free multi-task setting, agents respond to
multiple independent and identically distributed tasks, and the mechanism does
not know the prior distribution of agents' signals. The goal is to provide an
$\epsilon$-strongly truthful mechanism where truth-telling rewards agents
"strictly" more than any other strategy profile (with $\epsilon$ additive
error), and to do so while requiring as few tasks as possible. We design a
family of mechanisms with a scoring function that maps a pair of reports to a
score. The mechanism is strongly truthful if the scoring function is "prior
ideal," and $\epsilon$-strongly truthful as long as the scoring function is
sufficiently close to the ideal one. This reduces the above mechanism design
problem to a learning problem -- specifically learning an ideal scoring
function. We leverage this reduction to obtain the following three results. 1)
We show how to derive good bounds on the number of tasks required for different
types of priors. Our reduction applies to myriad continuous signal space
settings. This is the first peer-prediction mechanism on continuous signals
designed for the multi-task setting. 2) We show how to turn a soft-predictor of
an agent's signals (given the other agents' signals) into a mechanism. This
allows the practical use of machine learning algorithms that give good results
even when many agents provide noisy information. 3) For finite signal spaces,
we obtain $\epsilon$-strongly truthful mechanisms on any stochastically
relevant prior, which is the maximal possible prior. In contrast, prior work
only achieves a weaker notion of truthfulness (informed truthfulness) or
requires stronger assumptions on the prior.
- Abstract(参考訳): ピア予測メカニズムは、エージェントの報告と仲間の報告を比較して、検証がなくても、エージェントが真にその信号を報告するように動機付ける。
詳細フリーのマルチタスク設定では、エージェントは複数の独立かつ同一に分散したタスクに応答し、そのメカニズムはエージェントのシグナルの事前分布を知らない。
目標は、$\epsilon$-strongly truthful mechanismを提供することで、真理を測る報酬は他の戦略プロファイル($\epsilon$additive error)よりも「厳格」にエージェントを報酬し、できるだけ少ないタスクを必要としながらそれを行う。
我々は、レポートのペアをスコアにマッピングするスコア関数を持つメカニズムのファミリーを設計する。
このメカニズムは、スコアリング関数が「優先イデアル」であり、スコアリング関数が理想関数に十分近い限り、$\epsilon$-strongly truefulである場合に強く真である。
これにより、上記のメカニズム設計の問題を学習問題、特に理想的なスコアリング関数の学習に還元する。
この還元を利用して以下の3つの結果を得る。
1) 異なる種類の先行作業に必要なタスク数に対して,適切な境界を導出する方法を示す。
我々の削減は無数の連続信号空間設定に適用できる。
これはマルチタスク設定用に設計された連続信号に対する最初のピア予測機構である。
2) エージェントの信号(他のエージェントの信号を付加する)のソフト予測器をメカニズムに変換する方法を示す。
これにより、多くのエージェントが騒がしい情報を提供しても良い結果を与える機械学習アルゴリズムを実用化することができる。
3) 有限信号空間に対して、任意の確率論的に関係する任意の先行について$\epsilon$-strongly truthful mechanism を得る。
対照的に、先行研究は、真理性(真理性)の弱い概念しか達成しないし、事前のより強い仮定を必要とする。
関連論文リスト
- Refined Mechanism Design for Approximately Structured Priors via Active
Regression [50.71772232237571]
我々は、大量の商品を戦略的入札者に販売する収益を最大化する販売業者の問題を考える。
この設定の最適かつほぼ最適のメカニズムは、特徴付けや計算が難しいことで有名である。
論文 参考訳(メタデータ) (2023-10-11T20:34:17Z) - Deconstructing deep active inference [2.236663830879273]
アクティブ推論(英: Active Inference)とは、知覚、学習、意思決定の理論である。
このアクティビティの目標は、より複雑なタスクを、深いアクティブ推論を使って解決することである。
論文 参考訳(メタデータ) (2023-03-02T22:39:56Z) - Pessimism meets VCG: Learning Dynamic Mechanism Design via Offline
Reinforcement Learning [114.36124979578896]
オフライン強化学習アルゴリズムを用いて動的メカニズムを設計する。
我々のアルゴリズムは悲観主義の原理に基づいており、オフラインデータセットのカバレッジについて軽度な仮定しか必要としない。
論文 参考訳(メタデータ) (2022-05-05T05:44:26Z) - Understanding Interlocking Dynamics of Cooperative Rationalization [90.6863969334526]
選択的合理化(Selective rationalization)は、ニューラルネットワークの出力を予測するのに十分な入力の小さなサブセットを見つけることによって、複雑なニューラルネットワークの予測を説明する。
このような合理化パラダイムでは,モデルインターロックという大きな問題が浮かび上がっている。
A2Rと呼ばれる新しい合理化フレームワークを提案し、アーキテクチャに第3のコンポーネントを導入し、選択とは対照的にソフトアテンションによって駆動される予測器を提案する。
論文 参考訳(メタデータ) (2021-10-26T17:39:18Z) - Consequences of Misaligned AI [12.879600368339393]
本稿では,報酬関数の設計をインタラクティブでダイナミックなプロセスとみなすべきである。
セットアップを変更して、完全な状態を参照したり、プリンシパルがプロキシの目的を時間とともに更新したりすることで、より高いユーティリティソリューションを実現する方法を示します。
論文 参考訳(メタデータ) (2021-02-07T19:34:04Z) - What can I do here? A Theory of Affordances in Reinforcement Learning [65.70524105802156]
我々はマルコフ決定過程の学習と計画を行うエージェントのための余裕の理論を開発する。
このケースでは、任意の状況で利用可能なアクションの数を減らすことで、アフォーダンスが二重の役割を担います。
本稿では,よりシンプルで一般化された遷移モデルを推定するために,余裕を学習し,それを利用するアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-26T16:34:53Z) - From Checking to Inference: Actual Causality Computations as
Optimization Problems [79.87179017975235]
本稿では、最適化問題として二元非巡回モデルよりも、因果推論の異なる概念を定式化するための新しいアプローチを提案する。
8000ドル以上の変数を持つモデルを用いて,MaxSAT が ILP を上回り,数秒単位でチェック処理を行う場合が多い。
論文 参考訳(メタデータ) (2020-06-05T10:56:52Z) - PeerNomination: Relaxing Exactness for Increased Accuracy in Peer
Selection [30.779586758074206]
ピア選択エージェントは、賞または賞のサブセットを選択する必要がある。
エージェントは自己関心があるので、エージェントが選択される可能性に影響を与えないように、公平なアルゴリズムを設計したいと考えています。
本稿では,不特定ピア選択のための新しいアルゴリズムPeerNominationを提案し,その精度に関する理論的解析を行う。
論文 参考訳(メタデータ) (2020-04-30T16:39:47Z) - VCG Mechanism Design with Unknown Agent Values under Stochastic Bandit
Feedback [104.06766271716774]
本研究では,エージェントが自己の価値を知らない場合に,マルチラウンドの福祉最大化機構設計問題について検討する。
まず、福祉に対する後悔の3つの概念、各エージェントの個々のユーティリティ、メカニズムの3つの概念を定義します。
当社のフレームワークは価格体系を柔軟に制御し、エージェントと販売者の後悔のトレードオフを可能にする。
論文 参考訳(メタデータ) (2020-04-19T18:00:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。