論文の概要: Benchmarking the Hooke-Jeeves Method, MTS-LS1, and BSrr on the
Large-scale BBOB Function Set
- arxiv url: http://arxiv.org/abs/2204.13284v1
- Date: Thu, 28 Apr 2022 04:42:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-15 06:45:27.582736
- Title: Benchmarking the Hooke-Jeeves Method, MTS-LS1, and BSrr on the
Large-scale BBOB Function Set
- Title(参考訳): 大規模BBOB関数集合上でのフック-ジーブ法, MTS-LS1, BSrrのベンチマーク
- Authors: Ryoji Tanabe
- Abstract要約: その結果、BSrrは5つの分離可能な大規模BBOB関数に対して最先端の性能を持つことがわかった。
Hooke-Jeeves法は, 単相分離可能なBBOB関数に対して, MTS-LS1よりも優れた性能を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper investigates the performance of three black-box optimizers
exploiting separability on the 24 large-scale BBOB functions, including the
Hooke-Jeeves method, MTS-LS1, and BSrr. Although BSrr was not specially
designed for large-scale optimization, the results show that BSrr has a
state-of-the-art performance on the five separable large-scale BBOB functions.
The results show that the asymmetry significantly influences the performance of
MTS-LS1. The results also show that the Hooke-Jeeves method performs better
than MTS-LS1 on unimodal separable BBOB functions.
- Abstract(参考訳): 本稿では,24個の大規模BBOB関数の分離性を利用した3つのブラックボックスオプティマイザの性能について検討する。
BSrrは大規模最適化のために特別に設計されたものではないが、BSrrは5つの分離可能な大規模BBOB関数に対して最先端の性能を持つことを示した。
その結果, 非対称性はMTS-LS1の性能に著しく影響を及ぼすことがわかった。
また,Hooke-Jeeves法はBBOB関数に対するTS-LS1よりも優れた性能を示した。
関連論文リスト
- GroupMamba: Parameter-Efficient and Accurate Group Visual State Space Model [66.35608254724566]
状態空間モデル(SSM)は、二次的複雑性を伴う長距離依存のモデリングにおいて効果的な性能を示した。
しかし、純粋なSSMベースのモデルは、コンピュータビジョンタスクにおける安定性と最適性能の達成に関連する課題に直面している。
本稿では,コンピュータビジョンのためのSSMベースのモデルをスケールする上での課題,特に大規模モデルの不安定性と非効率性について論じる。
論文 参考訳(メタデータ) (2024-07-18T17:59:58Z) - Not All Experts are Equal: Efficient Expert Pruning and Skipping for Mixture-of-Experts Large Language Models [90.14693869269519]
MoE LLMはより少ないパラメータで高いパフォーマンスを実現することができるが、パラメータサイズが大きいためデプロイは困難である。
本稿では主に,プラグ・アンド・プレイ・エキスパートレベルのスペーシフィケーション技術を導入することで,MoE LLMの展開効率を向上させることを目的としている。
論文 参考訳(メタデータ) (2024-02-22T18:56:07Z) - BESA: Pruning Large Language Models with Blockwise Parameter-Efficient Sparsity Allocation [54.28841287750586]
大規模言語モデル(LLM)は、テキスト要約、テキスト質問応答など、様々なタスクにおいて優れたパフォーマンスを示してきた。
SparseGPTやWandaといった既存のソリューションは、重み付けによってこの問題を緩和しようと試みている。
本稿では,ブロックワイド再構成損失を適用して,ブロックワイドパラメータ効率の空間割当(BESA)と呼ばれる新しいLCMプルーニング手法を提案する。
論文 参考訳(メタデータ) (2024-02-18T12:44:15Z) - Correlation-Embedded Transformer Tracking: A Single-Branch Framework [69.0798277313574]
本稿では,トランスにインスパイアされた新しい単一ブランチ追跡フレームワークを提案する。
Siameseのような特徴抽出とは異なり、トラッカーは機能ネットワークの複数の層にクロスイメージ特徴相関を深く埋め込む。
出力機能は、追加の相関ステップなしでターゲット位置を予測するために直接使用できる。
論文 参考訳(メタデータ) (2024-01-23T13:20:57Z) - A Saliency Enhanced Feature Fusion based multiscale RGB-D Salient Object
Detection Network [9.855404465174455]
マルチスケール畳み込みニューラルネットワーク(Multiscale Convolutional Neural Network, CNN)は、様々な視覚問題を解く際、顕著な能力を示した。
本稿では,RGB-D唾液濃度検出のためのSaliency Enhanced Feature Fusion (SEFF) と呼ばれる機能融合モジュールを提案する。
論文 参考訳(メタデータ) (2024-01-22T13:01:35Z) - Remember what you did so you know what to do next [10.526351131118096]
我々は,初等科学実験のためのテキストゲームシミュレータであるScienceWorldにおいて,シミュレーションロボットが30の目標を達成する計画を立てる。
実験の結果、30種類のアクションに対して、パフォーマンスが広範囲に分散していることが示され、タスクに対する平均化が重大なパフォーマンス上の問題を隠蔽する可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-30T19:29:00Z) - Lightweight Full-Convolutional Siamese Tracker [4.903759699116597]
本稿では,LightFCと呼ばれる軽量完全畳み込み式シームズトラッカーを提案する。
LightFCは、新しい効率的な相互相関モジュールと、新しい効率的なre-centerヘッドを採用している。
実験の結果、LightFCは性能、パラメータ、FlopsとFPSの最適なバランスを実現することがわかった。
論文 参考訳(メタデータ) (2023-10-09T04:07:35Z) - Fine-Tuning Language Models with Just Forward Passes [92.04219196752007]
微調整言語モデル(LM)は、様々な下流タスクで成功したが、LMのサイズが大きくなるにつれて、バックプロパゲーションは大量のメモリを必要とする。
本稿では,メモリ効率の高いゼロソーダ(MeZO)を提案する。
論文 参考訳(メタデータ) (2023-05-27T02:28:10Z) - Towards Scale Balanced 6-DoF Grasp Detection in Cluttered Scenes [19.25678039613183]
本稿では,特に小規模サンプル処理の難しさに対処する新しい手法を提案する。
局所幾何学表現を強化するため,マルチスケールシリンダーグルーピング (MsCG) モジュールが提案される。
トレーニングを容易にするため、ノイズクリーンミックス(NcM)データ拡張が導入される。
論文 参考訳(メタデータ) (2022-12-10T11:31:12Z) - SA-Net: Shuffle Attention for Deep Convolutional Neural Networks [0.0]
この問題に対処するために,効率的なShuffle Attention (SA) モジュールを提案する。
例えば、バックボーンのResNet50に対するSAのパラメータと計算は、それぞれ300対25.56Mと2.76e-3 GFLOPs対4.12 GFLOPである。
論文 参考訳(メタデータ) (2021-01-30T15:23:17Z) - Lightweight Single-Image Super-Resolution Network with Attentive
Auxiliary Feature Learning [73.75457731689858]
本稿では,SISR の注意補助機能 (A$2$F) に基づく計算効率が高く正確なネットワークを構築した。
大規模データセットを用いた実験結果から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-11-13T06:01:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。