論文の概要: Weighting NTBEA for Game AI Optimisation
- arxiv url: http://arxiv.org/abs/2003.10378v2
- Date: Wed, 1 Apr 2020 14:52:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 00:06:34.515695
- Title: Weighting NTBEA for Game AI Optimisation
- Title(参考訳): ゲームAI最適化のためのNTBEAの軽量化
- Authors: James Goodman and Simon Lucas
- Abstract要約: N-Tuple Bandit Evolutionary Algorithm (NTBEA)は、ゲームAIにおけるアルゴリズムパラメータの最適化に非常に効果的であることが証明されている。
本研究では,NTBEAにおけるN-Tupleモデルの改良について,それらの情報量と一致の特異性によって重み付けすることで検討した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The N-Tuple Bandit Evolutionary Algorithm (NTBEA) has proven very effective
in optimising algorithm parameters in Game AI. A potential weakness is the use
of a simple average of all component Tuples in the model. This study
investigates a refinement to the N-Tuple model used in NTBEA by weighting these
component Tuples by their level of information and specificity of match. We
introduce weighting functions to the model to obtain Weighted- NTBEA and test
this on four benchmark functions and two game environments. These tests show
that vanilla NTBEA is the most reliable and performant of the algorithms
tested. Furthermore we show that given an iteration budget it is better to
execute several independent NTBEA runs, and use part of the budget to find the
best recommendation from these runs.
- Abstract(参考訳): N-Tuple Bandit Evolutionary Algorithm (NTBEA)は、ゲームAIにおけるアルゴリズムパラメータの最適化に非常に効果的であることが証明されている。
潜在的な弱点は、モデル内のすべてのコンポーネントタプルの単純な平均を使用することである。
本研究では,NTBEAにおけるN-Tupleモデルの改良について,それらの情報量と一致の特異性によって重み付けすることで検討した。
モデルに重み付け関数を導入して重み付けntbeaを取得し、4つのベンチマーク関数と2つのゲーム環境でテストする。
これらのテストは、バニラNTBEAがテストされたアルゴリズムの中で最も信頼性が高くパフォーマンスが高いことを示している。
さらに、イテレーション予算が与えられたら、いくつかの独立したNTBEA実行を実行し、予算の一部を使ってこれらの実行から最高のレコメンデーションを見つけるほうがよいことを示す。
関連論文リスト
- Use Your INSTINCT: INSTruction optimization for LLMs usIng Neural bandits Coupled with Transformers [66.823588073584]
大規模言語モデル (LLM) は命令追従能力に優れ、様々なアプリケーションで優れた性能を発揮している。
最近の研究は、ブラックボックスLLMに与えられる命令を自動的に最適化するために、クエリ効率のよいベイズ最適化(BO)アルゴリズムを用いている。
NNサロゲートによりBOのGPを置換し,ブラックボックスLLMの命令を最適化するニューラルバンディットアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-02T02:01:16Z) - AdaBrowse: Adaptive Video Browser for Efficient Continuous Sign Language
Recognition [39.778958624066185]
本稿では,入力されたビデオシーケンスから最も情報性の高いサブシーケンスを動的に選択する新しいモデル(AdaBrowse)を提案する。
AdaBrowseは1.44$times$スループットと2.12$times$より少ないFLOPで同等の精度を実現している。
論文 参考訳(メタデータ) (2023-08-16T12:40:47Z) - Optimizing Offensive Gameplan in the National Basketball Association
with Machine Learning [0.0]
ORTG (Offensive Rating) はディーン・オリバーによって開発された。
本稿では,NBAのプレイタイプと統計ORTGの相関関係について検討した。
モデルの精度を正当化するために、次のステップはモデルの出力を最適化することであった。
論文 参考訳(メタデータ) (2023-08-13T22:03:35Z) - Sample-Then-Optimize Batch Neural Thompson Sampling [50.800944138278474]
我々はトンプソンサンプリング(TS)ポリシーに基づくブラックボックス最適化のための2つのアルゴリズムを提案する。
入力クエリを選択するには、NNをトレーニングし、トレーニングされたNNを最大化してクエリを選択するだけです。
我々のアルゴリズムは、大きなパラメータ行列を逆転する必要性を助長するが、TSポリシーの妥当性は保たれている。
論文 参考訳(メタデータ) (2022-10-13T09:01:58Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - AutoBERT-Zero: Evolving BERT Backbone from Scratch [94.89102524181986]
そこで本稿では,提案するハイブリッドバックボーンアーキテクチャを自動検索するOP-NASアルゴリズムを提案する。
提案するOP-NASの効率を向上させるために,探索アルゴリズムと候補モデルの評価を最適化する。
実験の結果、検索されたアーキテクチャ(AutoBERT-Zero)は、様々な下流タスクにおいてBERTとそのバリエーションの異なるモデル容量を著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2021-07-15T16:46:01Z) - Adapting by Pruning: A Case Study on BERT [9.963251767416967]
対象タスクの性能を最適化するために,事前学習したモデルの神経接続をpruneするプラニングにより適応する新しいモデル適応パラダイムを提案する。
本稿では, 最適化問題として適応分割法を定式化し, モデル作成のための効率的なアルゴリズムを提案する。
以上の結果から,提案手法は細調整フルモデルと同等の性能を示しながら,BERTの最大50%の重み付けが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-05-07T15:51:08Z) - GEO: Enhancing Combinatorial Optimization with Classical and Quantum
Generative Models [62.997667081978825]
我々は、生成モデルとして知られる機械学習モデルを活用する新しいフレームワークを導入し、最適化問題を解決する。
我々は、テンソルネットワークマシンに依存するGEOの量子インスパイアされたバージョンに注力する。
関数呼び出し数に対する固定予算が与えられた場合、その目標が最小限の最小値を求める場合、その優れた性能を示す。
論文 参考訳(メタデータ) (2021-01-15T18:18:38Z) - Strong Generalization and Efficiency in Neural Programs [69.18742158883869]
本稿では,ニューラルプログラム誘導の枠組みを強く一般化する効率的なアルゴリズムを学習する問題について検討する。
ニューラルネットワークの入力/出力インターフェースを慎重に設計し、模倣することで、任意の入力サイズに対して正しい結果を生成するモデルを学ぶことができる。
論文 参考訳(メタデータ) (2020-07-07T17:03:02Z) - Distributionally Robust Weighted $k$-Nearest Neighbors [21.537952410507483]
少数のサンプルから堅牢な分類器を学ぶことは、マシンラーニングにおける重要な課題である。
本稿では, 重み付き$k$-アネレスト近傍のミニマックス分布に頑健な定式化について検討する。
我々は,この関数最適化問題を効率的に解くアルゴリズムである textttDr.k-NN を開発した。
論文 参考訳(メタデータ) (2020-06-07T00:34:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。