論文の概要: Unknown Delay for Adversarial Bandit Setting with Multiple Play
- arxiv url: http://arxiv.org/abs/2010.00161v1
- Date: Thu, 1 Oct 2020 01:07:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 07:45:47.547291
- Title: Unknown Delay for Adversarial Bandit Setting with Multiple Play
- Title(参考訳): 複数プレイによる敵対的バンディット設定の未知遅延
- Authors: Olusola T. Odeyomi
- Abstract要約: 本稿では,対戦型マルチアームバンディット(MAB)の動作遅延の問題に対処する。
類似のゲーム設定に関する既存の作業は、学習者が各ラウンドで腕を選択する場合のみに焦点を当てている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper addresses the problem of unknown delays in adversarial multi-armed
bandit (MAB) with multiple play. Existing work on similar game setting focused
on only the case where the learner selects an arm in each round. However, there
are lots of applications in robotics where a learner needs to select more than
one arm per round. It is therefore worthwhile to investigate the effect of
delay when multiple arms are chosen. The multiple arms chosen per round in this
setting are such that they experience the same amount of delay. There can be an
aggregation of feedback losses from different combinations of arms selected at
different rounds, and the learner is faced with the challenge of associating
the feedback losses to the arms producing them. To address this problem, this
paper proposes a delayed exponential, exploitation and exploration for multiple
play (DEXP3.M) algorithm. The regret bound is only slightly worse than the
regret of DEXP3 already proposed for the single play setting with unknown
delay.
- Abstract(参考訳): 本稿では,複数の遊びを持つマルチアームバンディット (mab) における未知の遅延問題に対処する。
類似のゲーム設定に関する既存の作業は、学習者が各ラウンドで腕を選択する場合のみに焦点を当てている。
しかし、ロボット工学には、学習者が1ラウンドごとに複数の腕を選択する必要がある多くの応用がある。
したがって、複数の腕が選択されたときの遅延の影響を調査する価値がある。
この設定で1ラウンドごとに選択される複数のアームは、同じ量の遅延を経験する。
異なるラウンドで選択された異なる組み合わせのアームからのフィードバック損失の集約があり、学習者は、フィードバック損失をそれらを生成するアームに関連付けるという課題に直面しています。
本稿では,多重遊び(dexp3.m)アルゴリズムの遅延指数関数化,活用,探索を提案する。
後悔の限界は、DreXP3がすでに提案しているシングルプレイセットに遅延のない後悔よりもわずかに悪い。
関連論文リスト
- Adversarial Bandits with Multi-User Delayed Feedback: Theory and
Application [17.64363983613468]
我々は,マルチユーザ遅延フィードバックを用いた逆MAB問題を定式化し,修正されたEXP3アルゴリズム MUD-EXP3 を設計する。
本稿では,複数のユーザからの遅延フィードバック結果について考察し,内部分布に制限を加えることなく検討する。
論文 参考訳(メタデータ) (2023-10-17T12:08:15Z) - Adversarial Sleeping Bandit Problems with Multiple Plays: Algorithm and
Ranking Application [7.0717496233701365]
本稿では,オンラインレコメンデーションシステムのコンテキストにおいて,複数のプレイの問題で睡眠帯域を効率的に解決するアルゴリズムを提案する。
提案アルゴリズムは、単腕選択のための睡眠帯域幅アルゴリズムを拡張し、$bigO(kN2sqrtTlog T)$で理論的性能を達成することを保証している。
論文 参考訳(メタデータ) (2023-07-27T00:11:59Z) - Decentralized Stochastic Multi-Player Multi-Armed Walking Bandits [6.732901486505047]
マルチプレイヤーのマルチアームバンディットは、認知無線システムへの応用を動機とした、ますます関連する意思決定問題である。
本稿では、前述のモデリング問題に対処することを目的とした、テキストマルチプレーヤのマルチアームウォーキングバンディットモデルを提案する。
論文 参考訳(メタデータ) (2022-12-12T23:26:02Z) - Increasing Students' Engagement to Reminder Emails Through Multi-Armed
Bandits [60.4933541247257]
本稿では,学生が週毎のメールリマインダーとどのように関わり,時間管理の習慣を構築するかについて,実世界の適応実験を行った。
適応実験にマルチアーマド・バンド(MAB)アルゴリズムを用いると、より良い結果が得られる可能性が高まる。
我々は、これらの適応アルゴリズムの問題点を強調します。例えば、大きな違いがない場合の腕の活用などです。
論文 参考訳(メタデータ) (2022-08-10T00:30:52Z) - Nonstochastic Bandits and Experts with Arm-Dependent Delays [17.272515865592542]
遅延が時間と腕に依存するような遅延環境で,非確率的な盗賊や専門家について検討する。
私たちの分析では、ドリフトに縛られた小説にヒンジを付け、1ラウンドのルックアヘッドを与えられた場合、アルゴリズムがどれだけの精度で実行できるかを測定しました。
論文 参考訳(メタデータ) (2021-11-02T13:36:11Z) - PAC Best Arm Identification Under a Deadline [101.10352416022559]
我々は、$(epsilon, delta)$-PACベストアーム識別について研究し、意思決定者は、アームプル(サンプル)の数を最小化しながら、少なくとも1 - delta$の確率で最適なアームを識別しなければならない。
この作業では、決定者はT$ラウンドの期限が与えられ、各ラウンドで、どのアームを引っ張るか、何回引っ張るかを適応的に選ぶことができる。
本稿では,この設定のための新しいアルゴリズムであるElastic Batch Racing (EBR)を提案する。
論文 参考訳(メタデータ) (2021-06-06T19:48:32Z) - Online Model Selection: a Rested Bandit Formulation [49.69377391589057]
静止したバンディット設定における最善のアーム識別問題を紹介し,解析する。
我々は、この問題の後悔の新しい概念を定義し、ゲームの終わりに最小の期待損失を持つ腕を常に再生するポリシーと比較します。
最近のバンディット文献における既知のモデル選択の試みとは異なり、アルゴリズムは問題の特定の構造を利用して、予想される損失関数の未知のパラメータを学習する。
論文 参考訳(メタデータ) (2020-12-07T08:23:08Z) - Multitask Bandit Learning Through Heterogeneous Feedback Aggregation [35.923544685900055]
我々は,この問題を,一組のプレイヤーが一組のアームと同時に相互作用する,$epsilon$-multi-player multi-armed bandit問題として定式化する。
我々は、異なるプレイヤーが収集した報酬を適応的に集約する高信頼な有界アルゴリズム、RobostAgg$(epsilon)$を開発する。
論文 参考訳(メタデータ) (2020-10-29T07:13:28Z) - TotalBotWar: A New Pseudo Real-time Multi-action Game Challenge and
Competition for AI [62.997667081978825]
TotalBotWarは、ゲームAIのための新しい擬似リアルタイムマルチアクションチャレンジだ。
ゲームはTotalWarのゲームシリーズに基づいており、プレイヤーは敵のゲームに勝つために軍隊を管理する。
論文 参考訳(メタデータ) (2020-09-18T09:13:56Z) - Tight Lower Bounds for Combinatorial Multi-Armed Bandits [72.56064196252498]
Combinatorial Multi-Armed Bandit 問題は、エージェントが各ラウンドで一組の腕を選択する、シーケンシャルな意思決定問題である。
最近提案されたGini重み付き滑らか度パラメータが単調報酬関数の下限を決定することを示す。
論文 参考訳(メタデータ) (2020-02-13T08:53:43Z) - The Price of Incentivizing Exploration: A Characterization via Thompson
Sampling and Sample Complexity [83.81297078039836]
インセンティブ付き探索(Incentivized Exploring)は、武器の選択を自給自足エージェントによって制御するマルチアーム・バンディットのバージョンである。
我々は、インセンティブの価格に焦点を合わせ、インセンティブの適合性のために、広く解釈された、パフォーマンスの喪失が引き起こされる。
論文 参考訳(メタデータ) (2020-02-03T04:58:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。