論文の概要、ライセンス

# (参考訳) バンディット環境における行動による社会学習 [全文訳有]

Social learning via actions in bandit environments ( http://arxiv.org/abs/2205.06107v1 )

ライセンス: CC BY 4.0
Aroon Narayanan(参考訳) 私は、ベイジアン・バンディットの設定で、私的な支払いと公共行動による戦略的探究のゲームを研究します。 特に私は、エージェントが十分に悲観的になる時だけ、リスクのあるアクションからリスクのないアクションへと時間とともに切り替えるカスケード均衡を考察します。 これらの平衡は、ある条件下で存在し、それらの健全な性質を確立することを示す。 これらの平衡における個々の探索は、エージェントが共通の事前から開始するか否かによって、単エージェントレベルよりも多かれ少なかれ小さいが、最も楽観的なエージェントは常に過小評価される。 また、エージェントが強制可能な元ante契約を書けるようにすれば、最も元ante楽観的なエージェントがすべてのペイオフストリームを購入することになり、より確立された企業による小さなスタートアップの購入についての説明が得られます。

I study a game of strategic exploration with private payoffs and public actions in a Bayesian bandit setting. In particular, I look at cascade equilibria, in which agents switch over time from the risky action to the riskless action only when they become sufficiently pessimistic. I show that these equilibria exist under some conditions and establish their salient properties. Individual exploration in these equilibria can be more or less than the single-agent level depending on whether the agents start out with a common prior or not, but the most optimistic agent always underexplores. I also show that allowing the agents to write enforceable ex-ante contracts will lead to the most ex-ante optimistic agent to buy all payoff streams, providing an explanation to the buying out of smaller start-ups by more established firms.
公開日: Thu, 12 May 2022 14:15:17 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
2 2 0 2 y a M 2 1 2 2 0 2 y a m 2 1 である。 0.52
] . H T n o c e [ ] . H T n o c e 0.37
1 v 7 0 1 6 0 1 v 7 0 1 6 0 0.42
. 5 0 2 2 : v i X r a . 5 0 2 2 : v i X r a 0.43
Social learning via actions in bandit environments∗ バンディット環境における行動による社会学習* 0.58
Aroon Narayanan アルーン・ナラヤナン(aroon narayanan) 0.31
Abstract I study a game of strategic exploration with private payoffs and public actions in 概要 私はプライベートペイオフと公共活動による戦略的探究のゲームを研究します。 0.58
a Bayesian bandit setting. ベイジアンバンディットの設定。 0.52
In particular, I look at cascade equilibria, in which agents 特に私はカスケード平衡に目を向けます。 0.44
switch over time from the risky action to the riskless action only when they become リスクのある行動から、リスクのない行動へと、時間が経つにつれて切り替わる。 0.59
sufficiently pessimistic. I show that these equilibria exist under some conditions and 悲観的だ これらの平衡はある条件下で存在し 0.60
establish their salient properties. 健全な性質を築き上げます 0.60
Individual exploration in these equilibria can be more これらの平衡における個々の探索は 0.61
or less than the single-agent level depending on whether the agents start out with a または、エージェントがaから始めるかどうかによって、シングルエージェントレベルより少ない 0.69
common prior or not, but the most optimistic agent always underexplores. 普通に先入観があるが 最も楽観的なエージェントは 常に探索不足だ 0.60
I also show that allowing the agents to write enforceable ex-ante contracts will lead to the most ご覧いただくのは エージェントが強制可能な元アンティー契約を書けるようにすれば 0.55
ex-ante optimistic agent to buy all payoff streams, providing an explanation to the 元楽観的なエージェントがすべてのペイオフストリームを購入し、その説明を提供する 0.60
buying out of smaller start-ups by more established firms. より確立した企業による小規模スタートアップの買収。 0.71
Keywords: strategic exploration, bandits, social learning, heterogenous priors キーワード:戦略的探索、バンディット、社会学習、異種優先 0.81
JEL Classification: D83 ∗I am thankful to Ian Ball, Stephen Morris, and Kartik Vira for detailed comments and feedback. JEL分類:D83 Ian Ball氏、Stephen Morris氏、Kartik Vira氏による詳細なコメントとフィードバックに感謝します。 0.61
I also thank Anne Carlstein and Nathaniel Hickok for insightful suggestions. 私も anne carlsteinさんとnathaniel hickokさんに感謝します。 0.66
1 1 0.43
英語(論文から抽出)日本語訳スコア
1 Introduction Many choices that economic agents face, be it a consumer deciding whether to try a new はじめに 経済エージェントが直面する選択は、消費者が新しいものを試すかどうかを決めるか 0.66
restaurant or a firm deciding whether to invest in a new technology, involve deciding between レストランや会社は 新しい技術に投資するか どちらにするかを決めます
訳抜け防止モード: レストランや会社は 新しい技術に投資するか決めています どちらかを決めること
0.85
a risky and a safe option. リスクと安全な選択肢です 0.68
The standard way to model this dichotomy is in the form of a この二分法をモデル化する標準的な方法は 0.67
bandit problem, in which an agent faces the choice of choosing between two arms to pull, バンディット問題は、エージェントが2つの腕のどちらを選ぶかの選択に直面する問題である。 0.67
representing the two actions. Moreover, many of the environments that economic agents 2つの行動を表す。 さらに、経済エージェントの環境の多くは、 0.70
operate in are social - they explore new options at the same time as other agents who are 運用はソーシャルである - 彼らは他のエージェントと同時に新しい選択肢を探求する 0.83
doing the same. This is the setting I study, with the assumption that agents can see each 同じことをする。 これは私が研究している設定で、エージェントがそれぞれを見ることができるという仮定で 0.71
others actions but not each others payoffs. 他の行動はするが お互いの支払いではない 0.54
For example, when deciding whether to try a 例えば、a を試すかどうかを決めるとき 0.83
new restaurant, a consumer may observe whether or not the restaurant is busy i.e. whether 新しいレストランは、消費者がレストランが忙しいかどうかを観察できる。 0.68
people keep returning to it, but probably not whether they enjoyed their meal (ignoring for 人々はそれに戻り続けますが、おそらく食事を楽しんだかどうか(それを無視して) 0.61
this exercise the small subset that posts reviews online). これは、レビューをオンラインで投稿する小さなサブセットを実行する)。 0.54
In particular, my interest is in an intuitive type of equilibria, which I term cascade 特に私の興味は直感的な平衡であり、これはカスケードと呼んでいます。 0.62
equilibria. In these, agents will keep taking the risky action until they become sufficiently 平衡 これらにおいて、エージェントは十分に成長するまで危険行為を継続する 0.60
pessimistic about its value, and then stop playing it forever, unless they observe someone その価値について悲観的で 観察しない限り 永遠に演奏するのをやめます 0.68
else taking the risky action longer than they were supposed to. 危険を冒す行動が 予想より長く続く場合もあります 0.60
My main results revolve around establishing conditions under which such equilibria exist, and characterizing their 私の主な成果は このような均衡が存在する条件を定め 特徴付けることで 0.76
salient properties. The existence results bring out the crucial dilemma that agents face when exploring in a 健全な性質です その結果、エージェントが探索する際に直面する重要なジレンマが生じる 0.64
social context. If an agent take the risky action today, she can expect to get some immediate 社会的文脈です エージェントが今日、危険な行動を起こせば、彼女はすぐに何かを得ることができる 0.68
payoff and also some information about its worth, but at the risk of bearing some bad payoff 支払いと、その価値に関する情報もあるが、悪い支払いを受けるリスクがある 0.62
in case the risky arm is actually detrimental. リスクのある腕が実際に有害な場合に備えます 0.62
However, she could also take the safe action しかし 安全な行動を取ることもできた 0.77
today and wait for the actions of her co-explorers to give her some indication about the right 今日、彼女の共同研究者の行動が正しいことを彼女に示すのを待ちなさい。 0.53
action to take. Cascade equilibria exist under conditions where the former outweighs the 行動を取る。 前者が上回る条件下でカスケード平衡が存在する 0.63
latter, leading agents to choose to explore rather than free-ride. 後者は、フリーライドではなく探索するエージェントを先導する。 0.62
I also establish comparative statics for these equilibria. また、これらの平衡に対して比較静的性を確立する。 0.53
I allow for heterogenous priors 私は異種性前科を許す 0.55
and show that the most optimistic agent is always the last to stop exploring, but it need 最も楽観的なエージェントは 探索をやめる最後のエージェントですが
訳抜け防止モード: そして最も楽観的なエージェントが 探索をやめる最後の手段であることを示します でも必要です
0.67
not always be the case that more optimistic agents explore more than less optimistic agents. 楽観的なエージェントがより楽観的なエージェントを探索するとは限らない。 0.62
2 2 0.42
英語(論文から抽出)日本語訳スコア
I then compare exploration in cascade equilibria to the single-agent setting. 次に、カスケード平衡における探索と単一エージェント設定を比較する。 0.66
If agents start エージェントが開始する 0.76
out with a common prior, each agent explores less than what she would have, had she been 共通の前もって それぞれのエージェントは 彼女が持っていたものより 少ない範囲を探索する 0.73
exploring alone. With a heterogenous prior, however, agents may actually explore more than 一人で探検する しかし、異種性前駆体では、エージェントは実際にはそれ以上の探索を行う可能性がある。 0.48
their single-agent level, in order to prevent more optimistic agents from becoming pessismistic より楽観的なエージェントが悲観的になるのを防ぐために、彼らのシングルエージェントレベル 0.55
and hence starting a cascade too soon, because they value the information that they can get それゆえ、すぐにカスケードを始めるのは、彼らが得ることのできる情報を大切にするためです。 0.51
from the exploration of others. Finally, I show that allowing agents to write enforceable ex-ante contracts will lead to 他人の探索から 最後に、エージェントが強制可能なex-ante契約を書けるようにすることは、 0.47
the most optimistic agent buying all of the payoff streams and then implementing her own 最も楽観的なエージェントは 支払いの流れを全て購入し 0.51
efficient level of exploration. 効率的な探査のレベルです 0.70
This phenomenon can be interpreted as the more established, この現象はより確立されたものと解釈できる。 0.70
better informed firm buying out or investing equity in smaller start-ups in the same space. より良いインフォームド・ファームは、同じ分野で小さなスタートアップに投資するか、投資する。
訳抜け防止モード: 会社を買収するか より小さなスタートで株式に投資する -同じ空間で上昇する。
0.71
Background and related literature: The bandit problem, in particular the single-agent 背景と文献 : 盗賊問題,特にシングルエージェント 0.51
multi-arm bandit, has a vast literature in computer science and economics. マルチアーム・バンディットはコンピュータ科学と経済学に大きな文献を持っている。 0.60
In a Bayesian setting where one is comfortable assigning a prior to the payoff from each arm, the solution ベイズ語で それぞれの腕からの支払いの先を割り当てるのに快適な場所、すなわち解決策を設定する 0.56
was derived first by [Gittins, 1979]. まず[Gittins, 1979]によって導かれた。 0.74
The agent assigns an index to each arm every period, エージェントは各周期毎に各アームにインデックスを割り当てる。 0.84
and pulls the arm with the highest index. 最も高い指標で腕を引っ張ります 0.55
When faced with one risky action and one safe 1つの危険な行動と1つの安全に直面したとき 0.58
action, the outcome under optimal play has a cutoff flavour - the agents chooses to take the アクション、最適なプレーでの成果にはカットオフの風味があり、エージェントは選択する。 0.69
risky action until some predetermined cutoff. 所定のカットオフまで 危険な行動だ 0.60
In a multi-agent setting, a third component of strategic benefit comes into play along マルチエージェント環境では、戦略的利益の第3の要素が活躍する 0.78
with the immediate payoff and the option value of the risky action. 即時の報酬とリスクの高い行動のオプション値で。 0.55
This was first studied by これは最初に研究され 0.79
[Bolton and Harris, 1999], who showed that a free-riding effect dominates in Markov equilib- [Bolton and Harris, 1999] マルコフ均衡においてフリーライディング効果が支配的であることを示す 0.72
rium, leading agents to explore less in the social setting than they would have done had they リアムは 社会的な環境を 探究する為の 主導的なエージェントです 0.34
been exploring alone. In their continuous-time model, both payoffs and actions are public 一人で探していた 継続時間モデルでは、ペイオフとアクションはどちらもパブリックです 0.59
information, which overloads the information benefit of the social setting - an agent can 社会的な設定による情報の利益を過大に負担する情報 - エージェントはできる 0.77
effectively depend on the exploration of others for her own benefit, introducing a free-rider 彼女の利益のために他人の探検に事実上依存し、フリーライダーを導入する 0.64
problem. Moreover, the unique Markov equilibrium features complicated mixed strategies, 問題よ さらに、ユニークなマルコフ均衡は複雑な混合戦略を特徴とする。 0.65
rather than the simple cutoff strategies that were optimal in the single agent setting. 単一のエージェント設定で最適だった 単純なカットオフ戦略ではなく 0.68
How- ever, [H¨orner et al , 2021] shows that this is an artefact of the solution concept rather than 方法 今までに[H sorner et al , 2021]は、これが解決概念の人工物であることを示している 0.50
the problem itself, by showing that efficiency is in fact attainable under some conditions 問題は、ある条件下で効率が実際に達成可能であることを示し、 0.75
3 3 0.43
英語(論文から抽出)日本語訳スコア
in strongly symmetric equilibria and the best equilibrium payoff is always achievable using 強い対称均衡において、最良の均衡の支払いは常に達成可能である 0.68
cutoff strategies. [Rosenberg et al , 2007] study a discrete time setting with two players and private payoffs, カットオフ戦略。 [rosenberg et al, 2007]2人のプレーヤーとプライベートペイオフによる離散時間設定の研究。 0.74
imposing the restriction that playing the safe arm is irreversible, and find that all equilibria 安全な腕の演奏が不可逆であるという制限を課し、すべての平衡が 0.72
are cutoff equilibria. 切り離された均衡です 0.74
[Heidhues et al , 2015] show that although Nash implementing the [Heidhues et al , 2015] ナッシュが実装したものの、 0.70
efficient outcome with common priors and observed payoffs is impossible even when the 共通の先行と観察された支払いによる効率的な成果は、たとえその場合でも不可能である 0.51
agents can communicate with teach other, it can be implemented under some conditions in エージェントは 他の人とコミュニケーションをとることができ 状況によっては 0.65
sequential equilibrium when payoffs are unobserved and players can communicate with each 支払いが守られず、プレイヤーが互いに通信できる場合の逐次均衡 0.66
other. They are silent on the case without communication. 他にも 彼らはコミュニケーションなしで事件について沈黙している。 0.60
Another strand of literature that my work closely relates to is the herding literature, 私の仕事と密接に関係しているもう1つの文学は牧草文学です。 0.65
started by [Banerjee, 1992] and [Bikhchandani et al , 1992]. 始まりは [banerjee, 1992] と [bikhchandani et al , 1992] です。 0.80
The idea of information cascades 情報カスケードの考え方 0.61
is a running theme in this literature, with myopic agents ignoring their information when the この文学における実行テーマであり 筋電図のエージェントは 情報を無視し 0.72
information from predecessor actions are too valuable. 前任者の行動からの情報は 貴重すぎる 0.55
The closest paper from this literature この文献から一番近い論文は 0.77
is [Mossel et al , 2015], who introduce forward-looking agents in a network setting and show ネットワークの設定と表示で前方のエージェントを紹介した[Mossel et al , 2015] 0.73
that full learning can happen in the limit in egalitarian networks. 完全な学習は平等主義的ネットワークの限界で起こり得る。 0.76
2 Model Each agent in a group of n agents faces a choice between playing one of two actions, labelled r (risky) and s (safe), at time periods t = 1, 2.... 2モデル n 個のエージェントのそれぞれのエージェントは、時間 t = 1, 2.... において r (risky) と s (safe) のラベル付けされた2つのアクションのうちの1つをプレイするかの選択に直面している。 0.74
The state of the world, θ ∈ {0, 1}, is drawn before start of play and is common for all agents. 世界の状態 θ ∈ {0, 1} は遊びを始める前に描かれ、すべてのエージェントに共通である。 0.65
The safe action gives a constant payoff of 安全な行動は一定の報酬を与える 0.74
0 always. The risky action’s payoff each period is i.i.d. across players conditional on θ - it 0であった。 各期間のリスク行動の支払いは、θ上で条件付きプレイヤー間で行われる。 0.64
pays Xh > 0 with probability π and pays Xl < 0 otherwise if θ = 1, and pays Xl < 0 always if θ = 0. 確率 π で xh > 0 を、さもなくば θ = 1 であれば xl < 0 を、θ = 0 であれば xl < 0 を常に支払う。 0.83
Assume E1 = E[X|θ = 1] > 0. E1 = E[X|θ = 1] > 0 とする。 0.84
Note that E2 = E[X|θ = 0] = Xl < 0. E2 = E[X|θ = 0] = Xl < 0 であることに注意。 0.82
I informally say that an agent “explores” when she plays the risky action. 私は非公式に、エージェントが危険行動を起こすと「探索する」と言います。 0.63
Agent i has prior qi about the state at time t = 1. エージェント i は t = 1 の時点の状態について事前qi を持つ。 0.65
I denote qi(1) by qi for ease of notation iは qi(1) で表記の容易さを表す 0.71
i.e. qi is the probability that agent i places on θ = 1. i は θ = 1 上のエージェント i の確率である。 0.68
I assume that the priors of the agents 私はエージェントの先行を仮定する 0.64
are commonly known. 一般的に知られています 0.48
Wlog, I label the agents 1, ..., n in decreasing order of qi. wlog, 私はエージェント 1, ..., n をqiの順番を減少させます。 0.79
The belief of agent i about the state at time t after history ht is written as pi(t, ht). 信仰 エージェント I では、履歴 ht の後の状態 t について pi(t, ht) と書かれています。 0.48
Agents observe the エージェントが観察する 0.86
4 4 0.43
英語(論文から抽出)日本語訳スコア
actions of other agents, but payoffs are private. 他のエージェントの行動だが 支払いは非公開だ 0.71
In this simple model, it is straightforward to calculate the cutoff belief at which a single この単純なモデルでは、単体が持つカットオフの信念を計算することは容易である 0.76
agent exploring alone would stop exploring, by simply equating the benefit from exploring 単独で探究するエージェントは 単に探索の利益に見合うことで 0.59
just one more period to the benefit from stopping forever: 永遠の停止から利益を得るためのもう1つの期間です 0.64
pa = (1 − δ)E0 pa= (1 − δ)E0 0.45
(1 − δ)(E1 + E0) + δπE1 (1 − δ)(E1 + E0) + δπE1 0.42
Starting at any prior p, this gives a time τ a(p) until which the agent would explore. 任意の前の p から始めると、エージェントが探索する時間 τ a(p) が得られる。 0.74
Similarly, given that the agent has n risky actions to take, she stops at a cutoff: 同様に、エージェントがリスクのあるアクションを取らないことを考慮すれば、彼女はカットオフで立ち止まります。 0.59
pe = (1 − δ)E0 Pe = (1 − δ)E0 0.42
(1 − δ)(E1 + E0) + δnπE1 (1 − δ)(E1 + E0) + δnπE1 0.40
This again corresponds to a time τ e(p) until which the agent would explore. これはエージェントが探索するまでの時間 τ e(p) に対応する。 0.67
Note that τ e(p) could be more or less than τ a(p), since in the n action case the agent gets n draws 注意 τ e(p) は τ a(p) 以上であるかもしれない。
訳抜け防止モード: 注意 τ e(p ) は τ a(p ) よりも多かれ少なかれ小さい。 nアクションの場合 エージェントはnドローを受けるので
0.58
per period instead of just 1. But since pe < pa, the total number of draws that the agent 期間ごとに1。 しかし pe < pa なので、エージェントが描画する総数は 0.56
takes in the n action case will be more than that she takes when can take one action, so nτ e(p) ≥ τ a(p). n 個のアクションケースを取れば、彼女が1つのアクションを取ることができるとき以上のものとなるので、nτ e(p) ≥ τ a(p) となる。
訳抜け防止モード: nのアクション・ケースは、彼女が1つのアクションを取る時よりも多くなるでしょう。 したがって nτ e(p ) ≥ τ a(p ) である。
0.74
The focus of this paper will be on an intuitive class of equilibria, which I call cascade 本論文の焦点は,カスケードと呼ぶ,直感的な平衡クラスである。 0.62
equilibria. In such equilibria, on the equilibrium path, agents start out exploring and if an 平衡 そのような平衡状態において、平衡経路上では、エージェントが探索を始め、もし an なら 0.53
agent draws a success at any point, she plays the risky action forever. エージェントはいつでも成功し、彼女は永遠に危険なアクションを演じます。 0.73
If however she draws only failures, then she will continue exploring till some pre-determined time, after which she もし絵を描くなら 失敗に過ぎず、彼女は事前に決められた時間まで探検を続ける。 0.64
will stop, unless she sees someone else explore past the pre-determined time that they were 止まるだろう。 他の誰かが 事前に決められた時間を越えて 探索するのを 見ない限り
訳抜け防止モード: 止まらない限り 彼女は、誰かが前決定の時間を越えて探検するのを見る
0.65
supposed to stop. Definition 1. 止まるはずだった 定義1。 0.59
I call a weak perfect Bayesian equilibrium, s, a cascade equilibrium if s induces the following “cascade” outcome on the equilibrium path: there are cutoffs (τi)i∈N ≥ 1 such that 私は弱い完全ベイズ均衡 s を、s が平衡経路上で次の「カスケード」結果をもたらす場合のカスケード均衡と呼ぶ。 0.47
1. agent i plays the risky action until t = τi 1 エージェント i は t = τi になるまで危険行動を行う 0.76
2. conditional on all agents j with cutoffs τj < τi having already switched to playing the 2.既に演奏に切り替えたカットオフ τj < τi を持つすべてのエージェント j の条件付き 0.78
safe action, agent i switches to playing the safe action at t = τi if and only if she has セーフアクション,エージェント i が t = τi でセーフアクションの演奏に切り替える
訳抜け防止モード: 安全な行動だ エージェント・アイは切り替える 安全動作を t = τi で行うことは
0.57
5 5 0.42
英語(論文から抽出)日本語訳スコア
Figure 1: Cascade equilibrium outcomes 図1:カスケード均衡の結果 0.81
received Xl every period that she played the risky action 常にXlを受け取り 危険な行動を起こしました 0.62
3. if some agent j does not switch at her designated cutoff τj, all agents play the risky 3. あるエージェントjが指定されたカットオフτjに切り替えなければ、すべてのエージェントが危険を冒す 0.76
action forever from t = τi + 1 t = τi + 1 から永遠に作用する 0.72
Note that cascade equilibria are described by the outcomes that are observed on path, カスケード平衡は、経路上で観察される結果によって記述される。 0.76
remaining agnostic towards the equilibrium strategies that produce these outcomes. これらの結果を生み出す均衡戦略に 関わらないままです 0.61
The primary motivation for defining them this way is that our interest lies in these outcomes その... この方法でそれらを定義する一番の動機は、私たちの関心がこれらの結果にあるということです。 0.31
themselves rather than the strategies employed to reach these outcomes. これらの成果を達成するための戦略ではなく 0.79
3 Equilibrium exploration 3.1 Existence of cascade equilibria 3 平衡探査 3.1 カスケード平衡の存在 0.73
First, I show that cascade equilibria are guaranteed to exist under some conditions. まず,カスケード平衡が一定の条件下で存在することが保証されていることを示す。 0.58
This is important because otherwise any results I prove using these equilibrium dynamics that I これ 重要なのは、もしそうでなければ、私がこの平衡ダイナミクスを使って証明した結果が、 0.59
conjecture could be vacuously true. 推測は空虚に真実かもしれない 0.53
Since these are just sufficient conditions, I do not rule これらは十分条件なので、私は規定しません 0.70
out that they may not exist outside of these conditions, but a more general proof will be a これらの条件の外では存在しないかもしれないが、より一般的な証明は 0.74
focus of future continuation of this work. この作品の今後の継続の焦点です 0.69
Proposition 1. With a common prior, that is when pi = pj for all i, j, the following is a 第1話。 共通の事前の場合、すべての i, j に対して pi = pj となると、次のようになる。 0.59
sufficient condition for the existence of cascade equilibria: カスケード平衡が存在するための十分な条件: 0.86
6 6 0.42
英語(論文から抽出)日本語訳スコア
≥ E1 E0 1 − π ≥ E1 E0 1 − π 0.40
δ + π − (1 − π)(1 + δπ 1−δ ) δ + π − (1 − π)(1 + δπ 1−δ ) 0.50
(1) Proof. Consider the following strategy profile - for any history ht, each agent plays the risky (1) 証明。 以下の戦略プロファイルを考えてみてください - どの歴史htでも、各エージェントがリスクを負います。
訳抜け防止モード: (1) 証明。 戦略プロファイル (strategy profile) - あらゆる歴史htについて。 各エージェントがリスクを負う
0.60
action till her belief drops below pa, after which she switches to the safe action and plays the 彼女の信念がPaの下に落ちるまで行動した後、彼女は安全な行動に切り替え、演奏する 0.66
safe action as long as her belief stays below pa. 彼女の信念がPaの下にある限り 安全な行動だ 0.60
If at any history her belief is 1, she plays the もしどんな歴史でも彼女の信念が1であるなら、彼女は演奏する。 0.63
risky action forever. Drawing successes and failures lead to standard Bayesian updating. 危険な行動だ 成功と失敗の引き抜きは、標準的なベイジアン更新につながる。 0.53
If at any history an agent switches to the safe action from the risky action, the other agents もしも エージェントが危険なアクションから安全なアクションに切り替えた履歴は、他のエージェント 0.62
infer that the deviating agent drew only failures when playing the risky action and update 逸脱したエージェントが 危険な行動を起こして 更新するときだけ失敗を 引き起こしたと推測する 0.60
their beliefs about the good state according to Bayes rule. 彼らの良き国家に対する信念は ベイズ・ルールに従っている 0.60
If any agent plays the risky もしエージェントが危険を冒すなら 0.82
action at any period where her beliefs can only either be 1 or below pa, other agents infer 彼女の信念が1つか1つ以下しかない期間に他のエージェントが推測する行為 0.57
that it must be 1 and everyone plays the risky action forever after. 1番で みんなが 永遠に 危険な行動をするって。 0.57
It is straightforward to check that these beliefs are consistent on path. 簡単に言えば これらの信念が道に一貫していることを確認してください 0.54
As a sidenote, note that this is a symmetric 備考として、これは対称であることに注意。 0.65
strategy profile, and on path everyone has the same cutoff τ . 戦略プロファイルとパス上では、全員が同じカットオフ τ を持つ。 0.79
Thus we are left to check sequential rationality of the strategies using the one shot これにより,戦略の逐次合理性を1ショットで確認することができる。 0.70
deviation principle. Note that given a profile of beliefs, the equilibrium strategies require the 偏差原理 信念のプロファイルが与えられた場合、均衡戦略が要求される。 0.55
same path of play, regardless of the history that led to the profile of beliefs. 信念のプロファイルに繋がった歴史に関係なく、遊びの道は同じです。 0.65
So it is sufficient to check one shot deviations at all possible profile of beliefs. それで十分です 信念のあらゆるプロファイルで 1発の偏差を確認します 0.62
Consider an agent’s incentives エージェントのインセンティブを考える 0.55
at some belief pi > pa to play the risky action as prescribed by the strategy vs deviating for ある信念では、pi > pa は戦略と逸脱によって規定される危険な行動を行う。
訳抜け防止モード: at some belief pi > pa 戦略や逸脱などによって決められた危険な行為をする
0.75
one period and playing the safe action. 安全な行動を起こす1つの期間。 0.60
If pi is such that the agent’s beliefs will fall below もし pi がエージェントの信念が下回るようなものであるなら 0.74
pa after observing one more failure, then whether she deviates or not, she’ll play the safe もう1度失敗を観察した後、彼女が脱落するかどうかは、彼女は金庫で遊ぶだろう 0.56
action from the next period if she draws no success, so she faces the single agent incentives, 彼女が成功しなかった場合、次の期間からの行動で、彼女は単一のエージェントインセンティブに直面します。 0.54
and hence she will find it optimal to play the risky action. ですから 彼女は危険を冒す行動をとるのが 最適だと考えます 0.62
For pi > pa such that this is not the case, we have pi ≥ pa+(1−π)(1−pa) by Bayes’ rule, and the difference in payoffs from E0] − piδ2E1. pi > pa がそうではないような場合、ベイズの規則により pi ≥ pa+(1−π)(1−pa) と e0] − piδ2e1 との違いがある。 0.85
The first term is the risky vs safe is bounded below by (1 − δ)pi[E1 − (1−pi) minimum additional payoff from playing the risky action this period. 第1項はリスク対セーフを (1 − δ)pi[E1 − (1-pi) 最小限の追加の報酬として、この期間にリスク対セーフを課す。 0.79
The second term in the second term (複数形 second terms) 0.29
pa pi maximum additional payoff from playing the safe action this period, obtained when playing パパ ピ この期間に安全なアクションをすることによる、最大追加の報酬 0.61
the safe action makes the other agents reveal their draws via their actions, leading to the 安全な行動によって 他のエージェントは 彼らの行動を通じて 引き分けを明らかにし 0.77
agent being perfectly match the state two periods from now. エージェントは今から2回 州と完全に一致している 0.70
This bound is non-negative due この境界は非負である 0.66
7 7 0.42
英語(論文から抽出)日本語訳スコア
to the inequality in the claim. 主張の不平等に結びつきます 0.56
When the agent’s belief pi < pa, if she plays the risky action, エージェントの信念が pi < pa になると、彼女がリスクのある行動を起こす。 0.64
everyone else plays the risky action forever after so she gains no information externality, and 他のみんなは いつまでも危険を冒して 情報の外部性を得ず 0.65
hence she will find it better to play the safe action. ですから 彼女は安全な行動を する方が良いと思うでしょう 0.74
The interpretation of this sufficient condition in words relates to the trade off that the 言葉におけるこの十分条件の解釈は、そのトレードオフに関連している 0.74
agent faces in terms of the informational benefit of other agents’ exploration versus the エージェントは,他のエージェントの探索に対する情報的利益の観点から直面する 0.84
informational benefit of taking the risky action. 危険を冒す行為の 情報的利益です 0.70
The left hand side quantifies the ratio of 左手側は比を定量化する 0.70
payoff benefits from the arms, and the right hand side connects it to a threshold based on 腕から利息を払い、右手はそれに基づいて閾値に接続する
訳抜け防止モード: 腕から利益を得て 右手はそれに基づいて閾値に接続します
0.66
informational considerations. The right hand side of the inequality, signifying the threshold 情報的考慮 不平等の右側で 閾値を表しています 0.62
that the payoff benefits must surpass, is low when π is high and δ is low. 利益は π が高く δ が δ が 低い場合 に勝てなければならない。 0.62
In effect, a higher 実のところ、より多くは 0.45
value for π indicates that the risky action provides a signal of its worth more often, while a π の値はリスク作用がより頻繁にその値の信号を与えることを示している。 0.81
lower value of δ means that the agents place lower value of the informational benefit of other δ の低い値は、エージェントが他の情報の利益の低い値を置くことを意味する 0.78
agent’s exploration (since it always comes in the future). エージェントの探索(それは常に未来にやってくるので)。 0.80
A concern with showing existence only for common prior profiles would be that such 共通の事前プロファイルだけの存在を示すことへの懸念は、そのようなことです。 0.58
profiles are measure zero in the space of belief profiles. プロファイルは信仰プロファイルの空間でゼロを測定する。 0.70
I show below that the common 以下に共通点を示します 0.72
prior assumption can be relaxed for this result, for priors that are sufficiently close to some 事前の仮定は、この結果のために緩和することができる。 0.46
common prior. This is because generically, the agents will not be indifferent between pulling 前もって共通。 これは、汎用的には、エージェントがプルの間に無関心にならないためである。 0.53
the safe and risky arms when they pull the risky arm for the last time, and will also not リスクの高い腕を最後に引っ張ると 安全でリスクの高い腕は
訳抜け防止モード: 安全で危険な腕は 彼らは最後に危険な腕を引っ張ります。 そしてそうはいきません
0.72
be indifferent between the two arms when they pull the safe arm for the first time. 安全腕を初めて引っ張るとき、両腕に無関心である。
訳抜け防止モード: 両腕に無関心であるさま 彼らは初めて安全な腕を引っ張ります。
0.68
This slackness allows for a small variation in priors while keeping incentives the same. これ slacknessは、インセンティブを同じに保ちながら、事前のバリエーションを小さくすることができる。 0.66
Proposition 2. For any generic common prior belief profile q and any set of parameters 第2話。 一般の共通事前信念プロファイル q とパラメータの任意の集合について 0.58
such that Equation 1 is satisfied, there exists an open ball B(q) around q such that for any p ∈ B(q), there is a cascade equilibrium with prior p. 方程式 1 が満たされるならば、q の周りの開球 b(q) が存在し、任意の p ∈ b(q) に対して、p の前のカスケード平衡が存在する。 0.87
Proof. Denote by Vi(t, pi) the continuation value of agent i at time t with belief pi. 証明。 Vi(t, pi) による t におけるエージェント i の継続値と信念 pi が一致する。 0.70
Denote by p(t, qi) the belief of an agent at time t given that she started out with a prior qi at time 解説 p(t, qi)によって tのエージェントの信念は
訳抜け防止モード: 解説 p(t, qi ) によって t の時点でのエージェントの信念は 彼女は当時 以前のQiから始まり
0.61
t = 0, and then drew only failures till time t. t = 0 となり、t までの障害のみを引いた。 0.70
Note that the equilibrium in Proposition 1 命題1における平衡について 0.71
was symmetric, so on path agents will explore till some time τ and then all together stop 対称だったので パスエージェントは τ まで探索し
訳抜け防止モード: 対称でした パスエージェントは τ まで探索し すべて停止します
0.50
exploring if none of them drew a success. だれも成功しなかったかどうかを探求する。 0.54
The continuation value in the last period that they explore can be written as 彼らが調査する最後の期間の継続価値は、次のように書ける。 0.62
8 8 0.42
英語(論文から抽出)日本語訳スコア
V (τ, p(t, qi)) = p(t, qi)E1 + (1 − p(t, qi))E0 V(τ, p(t, qi)) = p(t, qi)E1 + (1 − p(t, qi))E0 0.45
Since p(t, qi) is derived by Bayes rule, it is continuous in qi. p(t, qi) はベイズ則によって導かれるので、qi では連続である。 0.75
And hence so is V (τ, p(t, qi)). したがって、V (τ, p(t, qi)) である。 0.79
Now suppose the common prior profile q is such that agents are not indifferent between arms さて、共通の事前プロファイル q が、エージェントが両腕に無関心でないようなものであると仮定する。 0.51
when stopping exploration i.e. there exists ρ such that the value from playing the risky arm 探査を止めるとき、すなわち、リスクのある腕の演奏から得られる価値が 0.66
for the last time Vi(τ, p(τ, qi)) > ρ and the value from playing the risky arm the next time period Vi(τ + 1, p(τ + 1, qi)) < −ρ. 最後に、vi(τ, p(τ, qi)) > ρ であり、次の期間のvi(τ + 1, p(τ + 1 qi) < −ρ におけるリスクの高いアームの演奏から得られる値である。 0.74
Then by continuity there is some  > 0 such that for priors pi ∈ (qi − , qi + ), we have that Vi(τ, p(τ, pi)) ≥ 0 and Vi(τ + 1, p(τ + 1, pi)) ≤ 0. すると、連続性によって、先行 pi ∈ (qi − y, qi + ) に対して、Vi(τ, p(τ, pi)) ≥ 0 と Vi(τ + 1, p(τ + 1, pi)) ≤ 0 が成り立つような > 0 が存在する。 0.84
Thus agent i will continue to find it optimal to explore till τ and then stop. したがって、エージェント i は τ まで探索し、その後停止するのが最適である。 0.70
The proposition above establishes that the existence of cascade equilibria is not restricted 上記の命題はカスケード平衡の存在が制限されないことを証明している 0.66
to a measure zero subset of the space of prior profiles, since they exist in open balls around 周囲に開いたボールが存在するので、事前プロファイルの空間の零部分集合を計測する 0.75
the set of common prior beliefs. 共通の信念のセット。 0.51
Hence it is not something that one can rule out generically. したがって、一般論として排除できるものではない。 0.61
However, it does leave open the question of whether one can expect them to exist for a しかし、aとして存在を期待できるかどうかという疑問は残されている。 0.68
significant proportion of prior beliefs. 以前の信念のかなりの割合です 0.54
3.2 Properties of cascade equilibria 3.2 カスケード平衡の性質 0.81
Cascade equilibria were motivated by the intuitive way that agents explore in them, so the カスケード均衡は、エージェントがそれらを探索する直感的な方法によって動機づけられたので、 0.53
next logical step is to say more about the properties of agents’ exploration. 次の論理的なステップは、エージェントの探索の性質についてもっと話すことです。 0.67
Since their exploration is quantified by the cutoff τi, this is the relevant quantity that we must analyze. 彼らから 探索はカットオフ τiによって定量化されます これは我々が分析しなければならない 関連する量です 0.67
A natural conjecture that one might have is that τi are ordered by agent optimism i.e. τi がエージェント楽観主義、すなわちエージェント楽観主義によって順序付けられるという自然予想がある。 0.52
agents that start out with a higher qi will have a larger τi. 高いqiで始まるエージェントは、より大きなτiを持つ。 0.63
First I establish that this intuition まず、私はこの直観を確定する 0.56
holds for the most optimistic agent (labelled agent 1 wlog). 最も楽観的なエージェント(ラベル付きエージェント1wlog)に当てはまる。 0.75
Proposition 3. In any cascade equilibrium, τ1 ≥ τj. 第3話。 任意のカスケード平衡において、τ1 ≥ τj である。 0.48
Proof. Suppose τ1 < τj for some agent j (cid:54)= 1 証明。 あるエージェント j (cid:54)= 1 に対して τ1 < τj とする。 0.63
i.e. agent 1 stops exploring before agent i.e. エージェント1はエージェントの前に探索をやめる 0.50
j. Wlog let agent j be the last to switch to the safe action. j. Wlogはエージェントjを最後に安全なアクションに切り替えさせる。 0.77
Then, conditional on both of them そして、両者を条件づけする。 0.72
getting only failures, we have that at t = τj, pj(t) < p1(t) since agent j started out with t = τj, pj(t) < p1(t) エージェント j が開始したので、失敗だけを得ると、それは t = τj, pj(t) < p1(t) となる。 0.52
a more pessimistic prior and has explored more. もっと悲観的で もっと探究しました 0.48
Moreover both agent 1 and agent j face さらにエージェント1とエージェントjフェイスも 0.72
9 9 0.43
英語(論文から抽出)日本語訳スコア
single agent incentives at t = τj since neither agent’s action influences how the other will act エージェントのアクションがどちらのエージェントの行動にも影響しないため、t = τjでのシングルエージェントインセンティブ 0.66
in the future. But then, if it is best for agent j to play the risky action, it must be best for 未来に しかし、もしエージェントjがリスクのあるアクションを演じるのがベストなら、それはベストでなければならない。 0.57
agent 1 as well. This need not be true in general i.e. it is possible that τi < τj even though pi > pj. エージェント1も これは一般に真である必要はない、すなわち τi < τj は pi > pj であるとしても可能である。 0.62
To see this, consider the following example. へ これを見て 以下の例を考えてみましょう 0.63
Example 1. Suppose there are three agents, and the priors are such that the first agent 例1。 3つのエージェントがあり、前のエージェントが最初のエージェントであるとする。 0.73
reaches the single-agent belief cutoff after observing 4 failures, while the second and third 4つの失敗を観察した後、単独の信念の遮断に達する。 0.62
reach it after 2 draws, with the third agent a bit more pessimistic than the second. 引き分けた後で到達し、第3のエージェントは第2のエージェントよりも少し悲観的になる。 0.58
Specify the following strategies: 指定 以下の戦略です 0.74
• On the equilibrium path with no successes, agent 1 plays the risky action for 3 time •成功しない平衡経路において、エージェント1は3回にわたり危険行動を行う 0.86
periods, agent 2 for 1 period, and agent 3 for 2 periods. 期間、エージェント2は1期間、エージェント3は2期間。 0.56
• Off the equilibrium path, agents play the risky action until they reach their single- ※均衡経路上,エージェントは,単独で到達するまでリスクのある行動をする 0.73
agent cutoff belief. エージェント・カットオフ 信念だ 0.69
If they see an agent play the risky action when they should’ve been もしエージェントが危険な行動を起こすのを見たら、彼らはそうすべきだった 0.70
playing the safe action, they infer that the state is good with probability 1. 安全なアクションを行うと、その状態が確率 1 で良好であることを推測する。 0.69
If they see an agent switching from the risky to safe action, they infer that the agent only got もしそうなら 危険から安全な行動に切り替わるエージェントを見て エージェントだけが得たと推測します 0.71
failures so far. I show in Appendix A.1 that this is an equilibrium for some parameter values. 今のところ失敗。 私は Appendix A.1 で、これはパラメータ値の平衡であることを示す。 0.74
Note that agent 3 explores more than agent 2 even though her prior is more pessimistic. 注意 エージェント3は エージェント2より多くを探索する 彼女の前者は悲観的だが 0.61
Both of them find it optimal to continue with this arrangement, for their own reasons. 両者とも 独自の理由から、このアレンジを続けるのが最適だと考えてください。 0.62
Agent 2 knows エージェント2は知っている 0.55
that if she plays the risky action when she is supposed to switch, the others will assume that もし彼女が切り替えるはずの時に 危険な行動をすると
訳抜け防止モード: もし彼女が切り替えるはずの時に 危険な行動をするなら 他の人たちは
0.60
the state is good and always plays risky forever, which will lead to her losing access to their 状態は良好であり、常に危険に晒されるため、彼女は彼らのアクセスを失うことになる 0.69
information. Agent 3 knows that if she switches to the safe action, agent 1 will play the risky 情報だ エージェント3は、彼女が安全な行動に切り替えると、エージェント1が危険を冒すことを知っている。 0.67
action only until t = 2, which is bad for her since it reduces her informational externality. アクションは t = 2 になるまでであり、情報的外部性が低下するので、彼女は悪い。 0.70
A corollary of Example 1 is that cascade equilibria need not be unique for a given prior. 例1の系は、カスケード平衡は与えられた事前に対して一意である必要はない。 0.66
Note that we could have switched the roles of agents 2 and 3, and continued to have the エージェント2とエージェント3の役割を切り替えて、引き続きその役割を担ったことに注意してください。 0.60
same incentives for staying on the equilibrium path as in the example. 例のように平衡経路に留まるための同じインセンティブ。 0.66
Agent 3 would be 10 エージェント3は、 10 0.56
英語(論文から抽出)日本語訳スコア
willing to stop exploring early, since she is more pessimistic than agent 2, and given that 彼女はエージェント2よりも悲観的なので、早く探検するのをやめるつもりだ。 0.69
agent 3 stops early, agent 2 is willing to play the risky action for 2 periods, since she is more エージェント3は早めに停止し、エージェント2はリスクの高いアクションを2日間実行します。 0.62
optimistic than agent 3. エージェント3より楽観的だ 0.74
This analysis carries over for comparative statics across different priors. この解析は、異なる前もって比較静的に受け継がれる。 0.66
We can compare τ1 across different prior profiles, but it is not possible to compare τi in general. 比較できます τ1 は以前の異なるプロファイルにまたがるが、一般的に τi を比較することはできない。 0.70
This is established in the proposition and example that follow. これは 後続の命題と例によって確立されました 0.66
Proposition 4. Suppose for some p, p(cid:48), p(cid:48) 第4話。 ある p, p(cid:48), p(cid:48) を仮定する。 0.58
1 ≥ p1. Then τ1(p(cid:48)) ≥ τ1(p). 1 ≥ p1。 すると τ1(p(cid:48)) ≥ τ1(p) となる。 0.77
Proof. By Proposition 3, it must be the case that agent 1 must be the last to stop exploring 証明。 命題3では エージェント1が 探検をやめた最後の人物でなければならない 0.62
for both priors (note that agent 1 refers to the most optimistic agent here so it is possible どちらの事前も(エージェント1はここで最も楽観的なエージェントを参照しているので可能) 0.76
that this may not denote the same agent). これは同一のエージェントを指してはならない)。 0.64
Since the last agent to stop exploring faces singleperson incentives, agent 1 stops exploring at τa(p1) with prior profile p and at τa(p(cid:48) prior profile p(cid:48). 顔単体インセンティブを探索する最後のエージェントである1は、前のプロファイルpとτa(p(cid:48)前のプロファイルp(cid:48)で探索するのをやめる。 0.69
Given that p1 ≥ p(cid:48) follows. p1 ≥ p(cid:48) とする。 0.80
1, we must have that τa(p1) ≥ τa(p(cid:48) 1 τa(p1) ≥ τa(p(cid:48) とする。 0.83
1) with 1). Thus the result 1) 1). その結果は 0.48
Example 2. It is not possible to compare the cutoffs of the other agents, even if we fix 例2。 たとえ修正しても、他のエージェントのカットオフを比較することはできない。 0.72
the priors of all but one of these agents. エージェントの1人を除いて 全員の優先事項だ 0.73
To see this, consider the setting of Example 1. これを見るには、例 1 の設定を考えてみよう。 0.71
In that example, agent 1 explores 1 period in equilibrium. 院 その例では エージェント1は 平衡期を探索する 0.58
However, as noted earlier, there is しかし、先に述べたように、ある。 0.62
an equilibrium for the same prior in which the agent 1 explores for 2 periods. エージェント1が2つの期間にわたって探索する同じ前の平衡。 0.68
In fact, with a slightly smaller prior than in that example, agent 1 would still explore for 2 periods in an 実際、 この例より少し小さい場合、エージェント1は1つの期間に2回探索する。 0.50
equilibrium, which means that she explores more for a smaller prior. 均衡は、より小さな先を探索することを意味する。 0.59
The intuition behind this is that the amount of exploration done by an agent depends この背景にある直感は、エージェントによる探索の量が依存しているということである。 0.55
on both her own beliefs and what other agents do in equilibrium. 彼女の信念と 他のエージェントが均衡で何をするか 0.67
If the payoff that she もし彼女からの報酬が 0.69
anticipates from the actions of the other agents are sufficiently high, she will be willing to 他のエージェントの行動からの期待は 十分に高く、彼女は喜んで 0.61
stop exploration at an earlier stage, even at a higher belief, compared to the case where the 早い段階で、たとえ高い信念であっても、探査をやめる、というケースと比較して 0.62
other agents aren’t doing much socially beneficial exploration. 他のエージェントは社会的に有益な調査をしていない。 0.62
11 11 0.43
英語(論文から抽出)日本語訳スコア
3.3 Comparison to single-agent setting 3.3 シングルエージェント設定との比較 0.63
How does experimentation in the social setting compare to experimentation in the single 社会的環境における実験と1つの実験はどのように比較されるか 0.62
agent setting? エージェント・セッティング? 0.71
The answer to this question is nuanced. この質問に対する答えは曖昧だ。 0.75
On the one hand, we can show that 一方、私たちはそれを示せる。 0.55
with a common prior, conditional on not having observed a success, an agent explores less 成功を観察していない条件付きで、エージェントはより少ない探索をする 0.64
in the social setting than if she were experimenting alone. 単独で実験するより 社会的な環境でした 0.54
To see this, define τ a(pi) as the これを見るためには τ a(pi) を a として定義する。 0.62
time at which the agent switches to the risky action when experimenting alone, conditional 単独で実験を行う場合、エージェントが危険なアクションに切り替える時間、条件付き 0.80
on no successes. Given the set of cascade equilibrium cutoffs T (pi, p−i) for an agent in the 成功はしない。 エージェントのカスケード平衡カットオフT(pi, p−i)のセットを与えられた場合 0.78
social setting, also define 社会的設定も定義します 0.75
Proposition 5. If pi = p for all i, then τ a(p) ≥ ¯τ (p). 第5話。 すべての i に対して pi = p であれば τ a(p) ≥ (p) である。 0.62
¯τ (pi, p−i) = max{τ | τ ∈ T (pi, p−i)} τ (pi, p−i) = max{τ | τ ∈ t (pi, p−i)} 0.47
Proof. Suppose not. 証明。 しないとしよう。 0.60
Then, there is some equilibrium of the social setting where an agent そして、エージェントという社会設定の均衡が存在する。 0.65
i explores for ¯τ (p) > τ a(p). τ (p) > τ a(p) について探索する。 0.77
Consider the time period t = ¯τ (p), which is the last period 最後の期間である t = >τ (p) を考えてみましょう。 0.73
that agent i chooses the risky action, conditional on no successes so far. そのエージェントは 危険な行動を選ぶ 今のところ成功はしない 0.64
By the definition of ¯τ (p), either all other agents have already switched to the safe action, or this will be the 定義によれば p)において、他のすべてのエージェントが既に安全なアクションに切り替えたか、またはこれが 0.80
last period that they play the risky action, conditional on no successes. リスクの高いアクションを行う最後の期間は、成功を条件にします。 0.61
So the play of other agents cannot condition on what agent i plays at t = ¯τ (p), so her continuation payoff for 他人の遊びは エージェントは、エージェント i が t = >τ (p) で何をするかを条件にできないので、彼女の継続は、
訳抜け防止モード: 他人の遊びは エージェントは、t = τ ( p ) で私がどのエージェントを演じるか条件付けできない。 彼女の継続報酬は
0.57
both actions has the same information spillover benefits. どちらのアクションも同じ情報漏洩のメリットがある。 0.63
Thus, she faces the single-agent そのため、彼女はシングルエージェントに直面する。 0.43
trade-offs, which means she cannot play the risky action at t = ¯τ (p). トレードオフは、t = τ (p) で危険なアクションをプレイできないことを意味する。 0.68
With heterogenous beliefs, however, this is no longer necessary, as I show in Example 6. しかし、異質な信念では、例6に示すように、これはもはや不要です。 0.63
There can be equilibria in which agents explore more than when they explore alone. エージェントが単独で探索するよりも多くを探索する平衡が存在する。 0.65
The intuition behind this is related to how agents anticipate the effects of their actions on the その... この背景にある直感は エージェントが 行動が行動に与える影響を 予測する方法に関連しています
訳抜け防止モード: その... この背景にある直感は エージェントは彼らの行動が社会に与える影響を予測します
0.45
exploration of other agents. 他のエージェントの探索。 0.78
When an agent switches from the risky to the safe action, it エージェントがリスクから安全なアクションに切り替えると、 0.59
immediately reveals the results of all her past draws to all other agents. 彼女の過去の成果を 直ちに公表する 他の全てのエージェントに 0.69
This can cause the other agents to become pessimistic and stop exploring, even if they would’ve continued これが原因で 他のエージェントは悲観的になり、たとえ継続していたとしても探索をやめる 0.73
exploring without the release of such information. そのような情報の公開なしに探索する。 0.64
Thus agents can strategically explore a bit したがって、エージェントは少し戦略的に探索できる 0.66
more than they would’ve in the single-agent setting, in order to benefit from the information 情報から利益を得るため、単独のエージェント設定よりも多くのもの 0.53
12 12 0.42
英語(論文から抽出)日本語訳スコア
spillover from the others. 他の奴らから こぼれた 0.51
Note that for this story to be feasible, the other agents should be この物語が実現可能であれば 他のエージェントは 0.55
more optimistic, which necessitates heterogenous beliefs. 異質な信念を必要とする より楽観的です 0.52
Example 3. Let n = 3. 例3。 n = 3 とする。 0.58
The initial belief p0 1 for the first agent is such that three bad draws drop her belief below pa, while for the other two, it is such that five bad draws drop their 最初の信念 p0 最初のエージェントは3つの悪いドローがパの下に彼女の信念を落とし、残りの2つは5つの悪いドローが落ちてしまう。
訳抜け防止モード: 最初の信念 p0 最初のエージェントの 1 は 3 つの悪い引き分けが パの下に 彼女の信念を落としてしまう 他の2人にとって 悪いドローが5つ 落ちるのは
0.80
beliefs below the single-agent cutoff. シングルエージェントカットオフ以下の信念。 0.61
Specify the following strategies: 以下の戦略を指定する。 0.76
• If t ≤ 4 and everyone has played the risky action so far, everyone plays risky. • t ≤ 4 で,これまですべての人がリスクのある行動を起こした場合,全員がリスクのある行動をします。 0.60
• At t = 5, agent 1 switches to playing the safe action while agents 2 and 3 play the • t = 5 でエージェント1はセーフアクションに切り替え、エージェント2とエージェント3はセーフアクションに切り替える。 0.78
risky action. • On and off path, agents 2 and 3 switch to the safe arm when their belief drops below pa. 危険な行動だ • オン・オフの経路では、エージェント2と3は、その信念がpaを下回ると、セーフアームに切り替わる。 0.61
Off path, agent 1 switches to playing the safe action when her belief drops below エージェント1は、彼女の信念が下降すると安全なアクションに切り替える
訳抜け防止モード: オフパス、エージェント1が切り替える 彼女の信念が下降すると 安全な行動をとる
0.79
pa. In Appendix A.2, I show that this strategy profile is indeed a PBE for some values of パ Appendix A.2 では、この戦略プロファイルが確かにある値の PBE であることを示す。 0.60
the parameters. Note that in this equilibrium, agent 1 explores for 4 periods, which is more パラメータ。 この平衡において、エージェント1は4つの期間を探索する。 0.59
than what she would have explored if she had been exploring alone. もし彼女が単独で探検していたら 探検するはずだったのに 0.63
However the logic from Proposition 5 carries through for the most optimistic agent, しかし、命題5の論理は最も楽観的なエージェントに引き継がれる。 0.70
labelled agent 1 wlog, if such an agent exists uniquely. ラベル付きエージェント1 wlog このようなエージェントが一意に存在する場合。 0.74
This is because in any cascade これはどんなカスケードでも 0.43
equilibrium, she must be the last agent to explore. 均衡は、彼女が探検する最後のエージェントに違いない。 0.58
But then, she cannot be exploring more しかし、それ以上の探索はできない。 0.64
than her single agent levels. たった1人のエージェントのレベルより 0.57
Proposition 6. In any cascade equilibrium, τ a(p1) ≥ τ1. 第6話。 任意のカスケード平衡において、τ a(p1) ≥ τ1 である。 0.55
Proof. The proof for this carries through in the same way as the proof for Proposition 5, 証明。 この証明は、命題5の証明と同じ方法で行われる。 0.56
since by Proposition 3, agent 1 is the last to stop exploring. 命題3で、エージェント1は探検をやめた最後の人物である。 0.62
13 13 0.85
英語(論文から抽出)日本語訳スコア
3.4 Exploration with contracts 3.4 契約による探索 0.66
Suppose agents now have access to money, using which they can write enforceable formal エージェントがお金にアクセスでき、強制可能な形式を書くことができる 0.64
contracts ex ante1. ante1との契約。 0.62
I assume that there is a contracting stage before exploration, in which 私は、探査の前に契約段階があると仮定します。 0.72
agents have access to as much financing as they expect to get in the best case on the path of エージェントは、最善のケースで得られるであろう限りの資金を得ることができます。 0.49
play. This can be interpreted as there being a financial institution that can learn the prior 遊べ これは、以前のことを学べる金融機関が存在すると解釈できる。 0.58
of the agent by verifying the private information that an agent has regarding the value of 代理人が有する価値に関する私的情報を検証することによりエージェントの 0.71
the project, and then providing the agent with financing up to the expected value under the プロジェクト、そして、エージェントに、その下の期待される価値まで資金を提供する 0.66
agent’s prior. エージェントは前だ。 0.66
Proposition 7. Suppose there exists a most optimistic agent i i.e. pi > pj for all j (cid:54)= i. プロポーズ7。 任意の j (cid:54) = i に対して最も楽観的なエージェント、すなわち pi > pj が存在するとする。 0.60
Then if a contract is written ex ante, the outcome with money will be that agent i owns all payoff 契約書が元順に書かれていれば お金の成果は 私が全報酬を所有するエージェントです 0.66
streams and explores for τ e(pi) periods. τ e(pi) 期間のストリームと探索。 0.68
Proof. Consider an agent with prior p about the state. 証明。 状態について事前の p を持つエージェントを考える。 0.68
For now, let each of the n payoff 今のところ、nの支払いをそれぞれ行います。 0.55
streams be represented by a bandit. ストリームは盗賊によって表現されます 0.56
Her maximum payoff is when she can utilize all bandits 彼女の最大の報酬は バンディットを全部使えば 0.63
to learn about the state and maximize the total payoff from all bandits - this is the efficient 状態について学び、すべてのバンディットからの総報酬を最大化するために、これは効率的です
訳抜け防止モード: 国家について学び、すべての盗賊からの全給与を最大化する -これは効率的です
0.65
level of exploration. The efficient cutoff belief at which the agent stops exploring, i.e. when 探検のレベルです エージェントが探索をやめる効率的な遮断信念、すなわちいつ 0.60
the agent is indifferent between pulling just one arm and stopping all exploration, is given エージェントは片方の腕を引っ張って全ての探検を止めることに無関心です 0.67
by pe = (1 − δ)E0 ところで Pe = (1 − δ)E0 0.46
(1 − δ)(E1 + E0) + δnπE1 (1 − δ)(E1 + E0) + δnπE1 0.40
Given the prior p, this corresponds to a cutoff τ e(p) at which the agent stops all explo- 事前の p が与えられると、これはエージェントがすべての爆発を停止するカットオフ τ e(p) に対応する。 0.71
ration. Note that τ e(p) is increasing in p as a step function, i.e. レーションだ τ e(p) がステップ関数として p で増加していることに注意。 0.69
it is constant in intervals and then jumps up by 1 at the right end point of the intervals. 間隔が一定で そして、インターバルの右端で1つずつ跳ね上がります。 0.47
Thus, the total payoff that the agent ex ante expects to get is given by: したがって、エージェントの元アンテが期待する全報酬は、次の通りである。 0.64
1I assume away betting on the underlying state, which can lead to agents offering and accepting unbounded 1私は、被拘束者の提供及び受け入れに繋がる根底にある状態に賭けることを避ける 0.59
bets. 14 賭けだ 14 0.48
英語(論文から抽出)日本語訳スコア
τ e(p)(cid:88) τ e(p)(cid:88) 0.48
n{p(1 − δ)E1 − (1 − p)(1 − δ)E0} + np[1 − (1 − π)nτ e(p)]δτ e(p)+1E1 n{p(1 − δ)E1 − (1 − p)(1 − δ)E0} + np[1 − (1 − π)nτ e(p)]δτ e(p)+1E1 0.48
t=1 =n(1 − δτ e(p)+1)[pE1 − (1 − p)E0] + np[1 − (1 − π)nτ e(p)]δτ e(p)+1E1 t=1 である。 =n(1 − δτ e(p)+1)[pE1 − (1 − p)E0] + np[1 − (1 − π)nτ e(p)]δτ e(p)+1E1 0.40
As p increases, whenever τ e(p) is constant, this is clearly increasing in p. p が増加するにつれて τ e(p) が一定となると、これは明らかに p において増加する。 0.72
At the cutoff where τ e(p) jumps up, the agent with that cutoff belief is indifferent between exploring at カットオフで τ e(p) が跳ね上がるとき、そのカットオフ信念を持つエージェントは、探究するのとは無関係である 0.57
the two levels, so she gets a higher payoff than those with a slightly smaller prior, since 2つのレベルですから 以前より少し小さかった方より 高い給料を受け取っています 0.66
the payoff is increasing whenever τ e(p) is constant. τ e(p) が一定であれば、支払いは増加する。 0.76
Thus, it is clear that the total payoff is したがって、全支払額は明らかである。 0.75
increasing in p. Since an agent with a higher prior can expect to earn a higher payoff and hence utilize a pが増加します 先行性が高いエージェントは高い報酬を得ることができ、従って利用することができる。 0.76
higher ex ante credit line, she can offer higher side payments to the other agents than any ハイ・エク・アンテ・クレジット・ライン」は 他のエージェントよりも高いサイド・ペイメントを 0.61
other agent can offer. 他のエージェントが提供できる 0.83
The result then follows. This result predicts that the contracts that will be seen in practice will be ones where 結果は次の通り。 この結果は、実際に見られる契約は、そこで見られるであろうと予測する。 0.69
the most optimistic agent acquires the payoff streams of the less optimistic ones. 最も楽観的なエージェントは 楽観的でないエージェントの 収入源を取得する 0.47
Consider a setting where firms are developing new technology socially. 考えてみよう 企業が社会的に新しいテクノロジーを 開発する場所を定めています 0.60
Their priors at the beginning of the exploration stage are informed by their research ex ante, which leads to different signals 彼らの優先事項は 探索段階は、彼らの研究成果から知らされ、異なるシグナルに繋がる 0.67
of how lucrative the technology happens to be. 技術がいかに利益を上げているかです 0.69
In cases where the most established firm 最も確立した会社の場合 0.70
can research the technology the best ex ante and hence have the most optimistic signal, the テクノロジーを研究すれば 最高の先駆者となり 最も楽観的な信号が得られます 0.78
result above amounts to saying that the most established firm will “buy out” smaller startups. 以上の結果から、最も確立された企業は小さなスタートアップを“買い取る”ことになる。 0.74
Hence it provides a belief-centric explanation as to why these buy outs are seen in practice at したがって、なぜこうした買い出しが実際に見られるのかという信念中心の説明を提供する。 0.64
all. In many standard settings, results like the [Milgrom and Stokey, 1982] no trade theorem すべてだ 多くの標準設定において、[ミルグロムとストーキー, 1982]の貿易定理のような結果 0.69
and [Myerson and Satterthwaite, 1983] impossibility theorem establish the impossibility of そして[Myerson and Satterthwaite, 1983]の不合理性定理は不合理性を確立する 0.73
trade under the common prior even when agents have private information, precluding such エージェントが私的な情報を持っている場合であっても、共通の先例による取引 0.57
buy outs from being rationalized. 合理化されてから買い取る 0.57
15 15 0.42
英語(論文から抽出)日本語訳スコア
4 Discussion Existence of non-cascade equilibria: In this work, I focus on equilibria in which behaviour is 4 討論 非カスケード平衡の存在:この研究において、私は行動の平衡に焦点をあてる 0.56
similar in spirit to the cutoff strategies that are prevalent in earlier work. 初期の作品でよく見られる カットオフ戦略に似ています 0.57
There will, however, しかし、そうだろう。 0.60
be other interesting outcomes, produced by strategies with complicated behaviour. 複雑な行動の戦略によって 生み出される別の興味深い結果です 0.72
For example, agents can switch from the risky to the riskless action in continuous coordination, のために 例えば、エージェントは継続的な調整において、リスクからリスクのないアクションに切り替えることができます。 0.50
releasing information about their own draws early on in return for information for other 他人の情報と引き換えに自分の絵に関する情報を早期に公開する 0.71
agents’ draws, so that they can match their action to the state sooner. エージェントの引き分けにより、より早くそのアクションを州に合わせることができる。 0.64
These run the risk of making the agents pessimistic earlier than necessary, reducing equilibrium exploration これらのリスクは エージェントを必要よりも早く悲観的にし 平衡探索を減らし 0.75
and hence reducing overall welfare. 全体的な福祉を減らします 0.62
Yet another class of equilibria can have mixing on the しかし別の平衡のクラスが 混ざり合っています 0.78
equilibrium path. This class of equilibria will have the property that agents may switch from 平衡経路 このクラスの平衡は、エージェントが切り換えることができる性質を持つ。 0.49
playing the risky action to playing the safe action and then again switch back, without having 安全なアクションを行うために危険なアクションをプレイし、その後、必要なしに再び切り替える 0.68
gained any additional information about the state or the draws of others. 国家や他人の引き金について 追加情報を得た 0.53
Thus although interesting from a theoretical viewpoint, they exhibit dynamics that unlikely to be observed ですが 理論的な観点から興味深いのは 観測不可能なダイナミックスを示し 0.60
in practice. Welfare properties of cascade equilibria: Cascade equilibria were informally motivated 実のところ カスケード平衡の福祉特性:カスケード平衡は非公式に動機づけられた 0.55
by the observation that they feature delayed information release, but a result that formalizes 遅延した情報公開を特徴とするが 形式化した結果によって 0.67
the positive implications of this would need to establish that cascade equilibria indeed have これのポジティブな影響は、カスケード平衡が実際に有することを示す必要がある。 0.58
superior welfare or exploration properties. 優れた福祉や探査の資産です 0.63
An objective of future work could be to formally 将来の仕事の目的は、正式に行うことかもしれない 0.59
establish that cascade equilibria indeed have superior welfare and exploration properties, カスケード均衡は確かに 優れた福祉と探査能力を持っている 0.68
similar in spirit to the results in [H¨orner et al , 2021]. 結果に類似した精神の[H sorner et al , 2021]. 0.68
16 16 0.42
英語(論文から抽出)日本語訳スコア
References [Banerjee, 1992] Banerjee, A. V. (1992). 参考文献 Banerjee, 1992] Banerjee, A. V. (1992). 0.55
A simple model of herd behavior. 群れの行動の単純なモデル。 0.66
The quarterly journal of economics, 107(3):797–817. 四半期 経済誌『107(3):797–817』。 0.66
[Bikhchandani et al , 1992] Bikhchandani, S., Hirshleifer, D., and Welch, I. (1992). [Bikhchandani et al , 1992] Bikhchandani, S., Hirshleifer, D., and Welch, I. (1992)。 0.41
A theory of fads, fashion, custom, and cultural change as informational cascades. 一説 流行、ファッション、習慣、文化の変化を情報カスケードとして扱う。 0.53
Journal of political Economy, 100(5):992–1026. 政治雑誌 経済、100(5):992-1026。 0.65
[Bolton and Harris, 1999] Bolton, P. and Harris, C. (1999). [Bolton and Harris, 1999]Bolton, P. and Harris, C. (1999) 0.42
Strategic experimentation. Econometrica, 67(2):349–374. 戦略実験。 Econometrica, 67(2):349–374。 0.79
[Gittins, 1979] Gittins, J. C. (1979). [Gittins, 1979]Gittins, J. C. (1979) 0.44
Bandit processes and dynamic allocation indices. バンディットプロセスと動的割当インデックス。 0.69
Jour- nal of the Royal Statistical Society: Series B (Methodological), 41(2):148–164. ジュール 王立統計学会(Royal Statistical Society: Series B: Methodological, 41(2):148–164)の略称。 0.53
[Heidhues et al , 2015] Heidhues, P., Rady, S., and Strack, P. (2015). Heidhues et al , 2015] Heidhues, P., Rady, S., and Strack, P. (2015) 0.38
Strategic experimen- tation with private payoffs. 戦略実験- プライベートペイオフのタチオン。 0.69
Journal of Economic Theory, 159:531–551. journal of economic theory, 159:531–551 を参照。 0.60
[H¨orner et al , 2021] H¨orner, J., Klein, N., and Rady, S. (2021). a b [h sorner et al , 2021] h sorner, j., klein, n. and rady, s. (2021)。 0.34
Overcoming Free-Riding in フリーライディングの克服 0.58
Bandit Games. バンディットゲーム。 0.63
The Review of Economic Studies. rdab078. 専門は経済研究。 rdab078。 0.64
[Milgrom and Stokey, 1982] Milgrom, P. and Stokey, N. (1982). Milgrom and Stokey, 1982] Milgrom, P. and Stokey, N. (1982) 0.40
Information, trade and com- mon knowledge. 情報・貿易・競争 知識がない 0.53
Journal of economic theory, 26(1):17–27. 専門は経済論、26(1):17-27。 0.64
[Mossel et al , 2015] Mossel, E., Sly, A., and Tamuz, O. (2015). [Mossel et al , 2015]Mossel, E., Sly, A., Tamuz, O. (2015)。 0.77
Strategic learning and the topology of social networks. 戦略的学習と ソーシャルネットワークのトポロジーです 0.72
Econometrica, 83(5):1755–1794. Econometrica, 83(5):1755-1794。 0.76
[Myerson and Satterthwaite, 1983] Myerson, R. B. and Satterthwaite, M. A. (1983). [Myerson and Satterthwaite, 1983]Myerson, R. B. and Satterthwaite, M. A. (1983) 0.46
Efficient mechanisms for bilateral trading. 効率性 双方向取引の仕組みです 0.61
Journal of economic theory, 29(2):265–281. Journal of Economic theory, 29(2):265–281。 0.88
[Rosenberg et al , 2007] Rosenberg, D., Solan, E., and Vieille, N. (2007). [Rosenberg et al , 2007]Rosenberg, D., Solan, E., and Vieille, N. (2007)。 0.42
Social learning in one-arm bandit problems. 社会学習 片腕のバンディット問題。 0.53
Econometrica, 75(6):1591–1611. Econometrica, 75(6):1591–1611。 0.82
17 17 0.42
英語(論文から抽出)日本語訳スコア
A Examples A.1 Reversed order of cutoffs 例 A.1 カットオフの逆順 0.37
The only time period to check for deviations is time t = 2. 偏差をチェックする唯一の期間は、時間 t = 2 である。 0.69
For agent 2, the differential agent 2 の場合、差分 0.71
benefit from playing the risky versus the safe action is given by: リスク対セーフアクションのプレイのメリットは次のとおりである。 0.69
p2πE1 − (1 − p2)(1 − δ)E0 − I2 p2πE1 − (1 − p2)(1 − δ)E0 − I2 0.41
where I2 > 0 is the information benefit that the agent gets by staying on the equilibrium I2 > 0 は、エージェントが平衡に留まることで得られる情報利益である 0.80
path. For agent 3, the differential benefit from playing the risky versus the safe action is given パス エージェント3については、リスクと安全行動の相違による利益が与えられる。 0.57
by: p3πE1 − (1 − p3)(1 − δ)E0 + I p ところで p3πE1 − (1 − p3)(1 − δ)E0 + I p 0.46
3 − I d 3 − i d である。 0.64
3 where I p the equilibrium path and I d 3 どこに? 平衡経路とI d 0.43
3 = δ3p3[1−(1−π)3]E1 is the information benefit that the agent gets by staying on 3 = δ2p3[1− (1− π)2]E1 is the information benefit from deviating. 3 = δ3p3[1−(1−π)3]E1 は、エージェントが 3 = δ2p3[1−(1−π)2]E1 に留まることで得られる情報利益である。 0.78
3 > 0. Then, 3 > 0. そしたら 0.52
Note that given the other parameters, π can be chosen such that I p 他のパラメータを考えると、π は i p となるように選択できる。 0.82
3 − I d 3 − i d である。 0.64
there are priors close enough for the two agents such that 2人のエージェントには 十分近い前科があるから 0.58
p3πE1 − (1 − p3)(1 − δ)E0 + I p p3πE1 − (1 − p3)(1 − δ)E0 + I p 0.43
3 − I d 3 − i d である。 0.64
3 > 0 > p2πE1 − (1 − p2)(1 − δ)E0 − I2 3 > 0 > p2πE1 − (1 − p2)(1 − δ)E0 − I2 0.44
Thus agent 2 will play the safe action and agent 3 will play the risky action. これにより、エージェント2がセーフアクションを、エージェント3がリスクアクションをプレイする。 0.81
A.2 Exploring more with heterogenous priors A.2 異種前駆体によるさらなる探索 0.49
We check for deviations at the key decision nodes for the players: プレイヤーにとって重要な決定ノードでの偏差を確認します。 0.63
1. Agent 1 at t = 4: the agent’s on path payoff is given by: 1. エージェント1 at t = 4: エージェントのパスペイオフは、次の通りである。 0.73
p1[(1 − δ)E1 + δπE1 + δ(1 − π)(1 − (1 − π)11)δ2E1] + (1 − p1)[−(1 − δ)E0] p1[(1 − δ)E1 + δπE1 + δ(1 − π)(1 − (1 − π)11)δ2E1] + (1 − p1)[−(1 − δ)E0] 0.48
18 18 0.43
英語(論文から抽出)日本語訳スコア
while if she deviates, she gets もし彼女が脱落したら 0.50
The difference between these two is p1[(1 − (1 − π)8)δ2E1] この2つの違いは p1[(1 − (1 − π)8)δ2E1] 0.63
p1[(1−δ)E1 +δπE1]+(1−p1)[−(1−δ)E0]−p1δ2E1[(1−π)(1−(1−π)11)δ−(1−(1−π)8)] p1[(1−δ)E1 +δπE1]+(1−p1)[−(1−δ)E0]−p1δ2E1[(1−π)(1−(1−π)11)δ−(1−(1−π)8)] 0.40
Note that p1[(1 − δ)E1 + δπE1] + (1 − p1)[−(1 − δ)E0 = 0 is solved by the single-agent cutoff belief, so this term can be made arbitrarily small by choosing the initial belief p1[(1 − δ)E1 + δπE1] + (1 − p1)[−(1 − δ)E0 = 0 は単項カットオフの信念によって解かれるので、この用語は初期信念を選択することで任意に小さくすることができる。 0.84
of agent 1 appropriately, independent of δ and π. 1 が適当に δ と π から独立している. 0.77
We can also choose δ close enough δ を十分近くに選ぶこともできる。 0.63
to 1 so that it is sufficient to check that それをチェックするのに十分であるように1に 0.77
(1 − π)(1 − (1 − π)11) − (1 − (1 − π)8) > 0 (1 − π)(1 − (1 − π)11) − (1 − (1 − π)8) > 0 0.42
which is true when π is small. これは π が小さいときに真である。 0.72
2. Agents 2 and 3 at t=4: the on path payoff for agent 2 (and symmetrically, agent 3) at 2. t=4のエージェント2と3:エージェント2(および対称的にエージェント3)のオンパスペイオフ
訳抜け防止モード: 2. agent 2 and 3 at t=4 : the on path payoff for agent 2 (英語) 対称的に エージェント3)
0.89
t=4 is: p2[(1 − δ2)E1 + δ3(1 − (1 − π)2)(1 − δ)E1 + δ4(1 − (1 − π)7)E1] + (1 − p2)[−(1 − δ2)E0] t=4は p2[(1 − δ2)E1 + δ3(1 − (1 − π)2)(1 − δ)E1 + δ4(1 − (1 − π)7)E1] + (1 − p2)[−(1 − δ2)E0] 0.68
while if she deviates, she gets もし彼女が脱落したら 0.50
p2[(1 − (1 − π)4)δ2E1] p2[(1 − (1 − π)4)δ2E1] 0.49
For π small, the deviation payoff is small but the on path payoff is still large since the π小さければ、偏差ペイオフは小さいが、オンパスペイオフは依然として大きい。 0.65
two agents are two draws away from their single-agent cutoffs. 2つのエージェントは、シングルエージェントのカットオフから2つの引き出しです。 0.59
19 19 0.42
英語(論文から抽出)日本語訳スコア
3. Agents 2 and 3 at t=5: Both agents face their single-agent incentives at t = 5 since 3. t=5のエージェント2と3: いずれのエージェントもt=5の単一エージェントインセンティブに直面している。
訳抜け防止モード: 3 . agent 2 および 3 at t=5 : どちらのエージェントも、t = 5でエージェントインセンティブに直面する
0.83
they will get the information of the other agent at t = 6 no matter what they do, so 彼らは他のエージェントの情報を t = 6 で取得するので 0.58
they will both choose to play the risky action. 両者とも危険な行動を取ることを選ぶ。 0.61
20 20 0.42
                                         ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。