論文の概要: Persuading a Behavioral Agent: Approximately Best Responding and
Learning
- arxiv url: http://arxiv.org/abs/2302.03719v1
- Date: Tue, 7 Feb 2023 19:12:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-09 18:18:40.558242
- Title: Persuading a Behavioral Agent: Approximately Best Responding and
Learning
- Title(参考訳): 行動エージェントを説得する: ほぼ最良の反応と学習
- Authors: Yiling Chen, Tao Lin
- Abstract要約: 本研究では,受信機が送信者の信号処理方式にほぼ最もよく対応できるベイズ説得モデルの緩和について検討する。
自然な仮定の下では,送信側は,予測ユーティリティが最適ユーティリティとほぼ同等に優れたことを保証した信号処理方式を見つけることができることを示す。
- 参考スコア(独自算出の注目度): 9.122524488932573
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The classic Bayesian persuasion model assumes a Bayesian and best-responding
receiver. We study a relaxation of the Bayesian persuasion model where the
receiver can approximately best respond to the sender's signaling scheme. We
show that, under natural assumptions, (1) the sender can find a signaling
scheme that guarantees itself an expected utility almost as good as its optimal
utility in the classic model, no matter what approximately best-responding
strategy the receiver uses; (2) on the other hand, there is no signaling scheme
that gives the sender much more utility than its optimal utility in the classic
model, even if the receiver uses the approximately best-responding strategy
that is best for the sender. Together, (1) and (2) imply that the approximately
best-responding behavior of the receiver does not affect the sender's maximal
achievable utility a lot in the Bayesian persuasion problem. The proofs of both
results rely on the idea of robustification of a Bayesian persuasion scheme:
given a pair of the sender's signaling scheme and the receiver's strategy, we
can construct another signaling scheme such that the receiver prefers to use
that strategy in the new scheme more than in the original scheme, and the two
schemes give the sender similar utilities. As an application of our main result
(1), we show that, in a repeated Bayesian persuasion model where the receiver
learns to respond to the sender by some algorithms, the sender can do almost as
well as in the classic model. Interestingly, unlike (2), with a learning
receiver the sender can sometimes do much better than in the classic model.
- Abstract(参考訳): 古典的なベイジアン説得モデルは、ベイジアンおよび最良応答受信機を仮定する。
本研究では,受信機が送信者の信号処理方式にほぼ最もよく対応できるベイズ説得モデルの緩和について検討する。
その結果,(1) 送信側は,(1) 送信側が従来のモデルにおいて,最も最適な応答戦略がどんなに最適であっても,期待する効用を保証できる信号方式を見つけることができ,(2) 送信側が従来のモデルで最適効用よりもはるかに有効であるような信号方式は,受信側が送信側にとって最善の応答戦略を用いていたとしても,存在しないことがわかった。
併せて、(1)および(2)は、受信者のほぼ最善応答挙動が、ベイズ説得問題において送信者の最大到達可能ユーティリティにはあまり影響しないことを示す。
両方の結果の証明はベイズ的説得スキームの強固化の考え方に依存している: 送信者の信号方式と受信者の戦略のペアが与えられた場合、受信者がその戦略を元のスキームよりも新しいスキームで使うことを好むような別のシグナリングスキームを構築することができ、2つのスキームは送信者の同様のユーティリティを提供する。
主な結果(1)の適用例として、受信者がいくつかのアルゴリズムで送信者への応答を学習するベイズ的説得モデルにおいて、送信側は従来のモデルとほぼ同じように行うことができることを示す。
興味深いことに、(2) とは異なり、学習受信機では、送信者は古典モデルよりもずっと良いことができる。
関連論文リスト
- Dense Reward for Free in Reinforcement Learning from Human Feedback [64.92448888346125]
我々は報酬モデルが単にスカラー出力よりも多くの情報を含んでいるという事実を活用している。
私たちは、これらの注意重みを使って、完了全体に沿って報酬を再分配します。
経験的に、トレーニングを安定化し、学習速度を加速し、実際は、より良い局所最適性をもたらす可能性があることを示す。
論文 参考訳(メタデータ) (2024-02-01T17:10:35Z) - Algorithmic Persuasion Through Simulation [54.96278605678665]
本研究では,受信側が受信側を説得し,二元的行動を起こそうとするベイズ的説得問題について考察する。
顧客調査やユーザスタディ、最近のジェネレーティブAIの進歩に動機付けられ、送信側は受信者についてより深く学ぶことができる。
論文 参考訳(メタデータ) (2023-11-29T23:01:33Z) - Pure Exploration under Mediators' Feedback [63.56002444692792]
マルチアームバンディット(Multi-armed bandits)は、各インタラクションステップにおいて、学習者が腕を選択し、報酬を観察する、シーケンシャルな意思決定フレームワークである。
本稿では,学習者が仲介者の集合にアクセスできるシナリオについて考察する。
本稿では,学習者には仲介者の方針が知られていると仮定して,最適な腕を発見するための逐次的意思決定戦略を提案する。
論文 参考訳(メタデータ) (2023-08-29T18:18:21Z) - Provable Benefits of Policy Learning from Human Preferences in
Contextual Bandit Problems [82.92678837778358]
嗜好に基づく手法は、InstructGPTのような経験的応用でかなりの成功を収めている。
フィードバックモデリングにおける人間のバイアスと不確実性がこれらのアプローチの理論的保証にどのように影響するかを示す。
論文 参考訳(メタデータ) (2023-07-24T17:50:24Z) - Sequential Information Design: Learning to Persuade in the Dark [49.437419242582884]
本研究では,自己関心の受信者の行動に影響を及ぼそうとする情報発信者が直面する繰り返し情報設計問題について検討する。
各ラウンドにおいて、送信者は、シーケンシャル意思決定(SDM)問題におけるランダムイベントの実現を観察する。
これは、そのような情報をレシーバーに段階的に開示し、彼らが(望まれる)アクションレコメンデーションに従うように説得する方法の課題である。
論文 参考訳(メタデータ) (2022-09-08T17:08:12Z) - Sequential Reattempt of Telecloning [0.0]
共有状態は、さらなるテレクロニングプロトコルのために再利用可能であることを示す。
任意の数の受信機に量子的優位性を持つオリジナルのテレクロニングが可能であるが、テレクロニングでは資源のリサイクルは不可能であると報告する。
論文 参考訳(メタデータ) (2022-06-25T17:54:09Z) - Multi-Receiver Online Bayesian Persuasion [51.94795123103707]
本研究では,未知の逆選択型の受信者に対して,送信者が繰り返し対面するオンライン学習フレームワークについて検討する。
オフラインモデルの慣習として、外部性やバイナリアクションのないケースに重点を置いています。
本稿では,損失関数を有限個に制限したオンライン学習問題に対処する一般的なオンライン降下スキームを提案する。
論文 参考訳(メタデータ) (2021-06-11T16:05:31Z) - Learning to Persuade on the Fly: Robustness Against Ignorance [10.817873935576412]
送信者と受信機との間の繰り返しの説得設定を調査し、その都度$t$で、送信者は未知の事前分布から独立かつ同一に引き出されたペイオフ関連状態を観察する。
標準設定と同様に、送信者は、状態に関する情報を選択的に共有することにより、受信者を説得して送信者の好みに沿った行動を選択する。
標準モデルとは対照的に、送信者は先を知らないし、徐々に先をフライで学習しながら説得する必要があります。
論文 参考訳(メタデータ) (2021-02-19T21:02:15Z) - BLOB : A Probabilistic Model for Recommendation that Combines Organic
and Bandit Signals [12.83118601099289]
提案手法は,推薦品質の評価を改善するために,「オルガニック」信号と「バンディット」信号を組み合わせた確率論的手法を提案する。
提案手法は,両手法が最先端の有機的推薦アルゴリズムの価値を上回るか,あるいは一致しているかを,広範囲にわたるシミュレーション研究を用いて検討する。
論文 参考訳(メタデータ) (2020-08-28T06:57:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。