論文の概要: Investment vs. reward in a competitive knapsack problem
- arxiv url: http://arxiv.org/abs/2101.10964v1
- Date: Tue, 26 Jan 2021 17:47:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-13 19:55:35.870520
- Title: Investment vs. reward in a competitive knapsack problem
- Title(参考訳): 競争的ナップサック問題における投資対報酬
- Authors: Oren Neumann, Claudius Gros
- Abstract要約: 我々のゴールは、より大きな脳の代謝コストのバランスを、一般問題と一般問題の解決における優位性と比較することである。
このフレームワークでは、2人の対戦相手が共有リソースを競い合い、相手よりも多くのリソースを収集することを目指しています。
驚くほど単純な関係 $N_A/(N_A+N_B)$ は、$N_A$ ニューロンを持つネットの相対的な勝利率に対して $N_B$ である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Natural selection drives species to develop brains, with sizes that increase
with the complexity of the tasks to be tackled. Our goal is to investigate the
balance between the metabolic costs of larger brains compared to the advantage
they provide in solving general and combinatorial problems. Defining advantage
as the performance relative to competitors, a two-player game based on the
knapsack problem is used. Within this framework, two opponents compete over
shared resources, with the goal of collecting more resources than the opponent.
Neural nets of varying sizes are trained using a variant of the AlphaGo Zero
algorithm. A surprisingly simple relation, $N_A/(N_A+N_B)$, is found for the
relative win rate of a net with $N_A$ neurons against one with $N_B$. Success
increases linearly with investments in additional resources when the networks
sizes are very different, i.e. when $N_A \ll N_B$, with returns diminishing
when both networks become comparable in size.
- Abstract(参考訳): 自然選択によって種は脳を発達させ、その大きさは課題の複雑さとともに増加する。
私たちの目標は、より大きな脳の代謝コストと、一般および組み合わせ問題の解決における利点のバランスを調べることです。
競技者に対するパフォーマンスとして優位性を定義するため、knapsack問題に基づく2プレーヤゲームを用いる。
このフレームワークでは、2人の対戦相手が共有リソースを競い合い、相手よりも多くのリソースを収集することを目指しています。
異なるサイズのニューラルネットワークはAlphaGo Zeroアルゴリズムの変種を使用して訓練される。
驚くほど単純な関係 $N_A/(N_A+N_B)$ は、$N_A$ ニューロンを持つネットの相対的な勝利率に対して $N_B$ である。
ネットワークのサイズが大きく異なる場合、追加リソースへの投資によって成功は線形に増加する。
N_A \ll N_B$ の場合、両方のネットワークがサイズに匹敵するとリターンが減少します。
関連論文リスト
- On the Sparsity of the Strong Lottery Ticket Hypothesis [8.47014750905382]
最近の研究で、任意のニューラルネットワークを正確に近似できるランダムニューラルネットワークの$N$ containsworksが示されている。
古典的セッティングにおけるStrong Lottery Ticket仮説の最初の証明を提供する。
論文 参考訳(メタデータ) (2024-10-18T06:57:37Z) - Fast Last-Iterate Convergence of Learning in Games Requires Forgetful Algorithms [71.73971094342349]
オンライン学習によるセルフプレイは、大規模な2人プレイのゼロサムゲームを解くための重要な方法の1つだ。
我々は,OMWUが支払行列のサイズに対数依存するなど,いくつかの利点があることを示した。
我々は、過去のことをすぐに忘れない幅広い種類のアルゴリズムが、すべて同じ問題に悩まされていることを証明している。
論文 参考訳(メタデータ) (2024-06-15T13:26:17Z) - Variance-Aware Regret Bounds for Stochastic Contextual Dueling Bandits [53.281230333364505]
本稿では, 一般化線形モデル(GLM)から, デュエルアームのバイナリ比較を生成するコンテキストデュエルバンド問題について検討する。
本稿では,SupLinUCB型アルゴリズムを提案する。このアルゴリズムは,計算効率と分散を意識したリセットバウンド$tilde Obig(dsqrtsum_t=1Tsigma_t2 + dbig)$を提案する。
我々の後悔は、比較が決定論的である場合の直感的な期待と自然に一致し、アルゴリズムは$tilde O(d)$ regretにのみ悩まされる。
論文 参考訳(メタデータ) (2023-10-02T08:15:52Z) - On the Re-Solving Heuristic for (Binary) Contextual Bandits with
Knapsacks [4.2139857669184]
我々は、knapsacks (CBWK) を用いた文脈的包帯問題を考える。
本研究は,収益管理に成功している再解決と,この問題を解決するための分配推定手法を組み合わせたものである。
我々のアルゴリズムは流体ベンチマークに対して$widetilde O(Talpha_u + Talpha_v + T1/2)$ regretを得られることを示す。
論文 参考訳(メタデータ) (2022-11-25T08:21:50Z) - Learning Correlated Equilibria in Mean-Field Games [62.14589406821103]
我々は平均場相関と粗相関平衡の概念を発展させる。
ゲームの構造に関する仮定を必要とせず,効率よくゲーム内で学習できることが示される。
論文 参考訳(メタデータ) (2022-08-22T08:31:46Z) - Learning Best Combination for Efficient N:M Sparsity [75.34103761423803]
N:M学習は自然に有限コレクション内で最高の組み合わせを求める問題として特徴づけられる。
学習の最良の組み合わせ (LBC) は, 様々なネットワークにおいて, 市販のN:Mスポーサリティ手法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-06-14T07:51:31Z) - Correlation Functions in Random Fully Connected Neural Networks at
Finite Width [17.51364577113718]
この記事では、ガウスのランダムな重みとバイアスと$L$の隠蔽層を持つ完全に接続されたニューラルネットワークについて考察する。
有界非線形性に対しては、ネットワーク出力とその導関数の共役相関関数に対して1/n$の急激な再帰推定を与える。
いずれの場合も、深さと幅の比$L/n$は、個々のニューロンのゆらぎのスケールとニューロン間相関の大きさの両方を制御し、有効なネットワーク深さの役割を担っている。
論文 参考訳(メタデータ) (2022-04-03T11:57:18Z) - Near-Optimal Learning of Extensive-Form Games with Imperfect Information [54.55092907312749]
本稿では,2プレイヤーゼロサムゲームにおいて,$widetildemathcalO((XA+YB)/varepsilon2)$プレイのエピソードのみを必要とするアルゴリズムの最初の行を,$varepsilon$-approximate Nash平衡を求める。
これにより$widetildemathcalO((X2A+Y2B)/varepsilon2)$が$widetildemathcalO(maxX,
論文 参考訳(メタデータ) (2022-02-03T18:18:28Z) - Near-Optimal Reinforcement Learning with Self-Play [50.29853537456737]
我々は,直接の監督なしに自己対決で最適な政策を学習するセルフプレイアルゴリズムに焦点をあてる。
本稿では,サンプル複雑性を$tildemathcalO(SAB)$,サンプル複雑性を$tildemathcalO(S(A+B)$とする新しいemphNash Vラーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-22T05:00:13Z) - Provably Good Solutions to the Knapsack Problem via Neural Networks of Bounded Size [6.959718867617964]
古典的なNP-hard Knapsack問題(NP-hard Knapsack problem)の例として,ニューラルネットワークの表現力について検討する。
最適クナプサック解を求めるには、最適クナプサック解の利益に依存する深さ4と幅のRNNが十分である。
論文 参考訳(メタデータ) (2020-05-28T15:55:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。