論文の概要: Black-Box Optimization of Object Detector Scales
- arxiv url: http://arxiv.org/abs/2010.15823v1
- Date: Thu, 29 Oct 2020 17:55:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 22:17:07.390919
- Title: Black-Box Optimization of Object Detector Scales
- Title(参考訳): 物体検出器スケールのブラックボックス最適化
- Authors: Mohandass Muthuraja and Octavio Arriaga and Paul Pl\"oger and Frank
Kirchner and Matias Valdenegro-Toro
- Abstract要約: 我々は,より高速なR-CNNとSSDにおいて,前/デフォルトのボックススケールを調整するためのブラックボックス最適化手法を提案する。
PASCAL VOC 2007では、入力画像サイズと先行ボックスアンカースケールをFaster R-CNN mAPで調整することにより、2%増加することが示されている。
SSDを用いたCOCOデータセットでは、中規模および大規模オブジェクトではmAPが改善されているが、小オブジェクトではmAPが1%減少する。
- 参考スコア(独自算出の注目度): 7.168750704705386
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object detectors have improved considerably in the last years by using
advanced CNN architectures. However, many detector hyper-parameters are
generally manually tuned, or they are used with values set by the detector
authors. Automatic Hyper-parameter optimization has not been explored in
improving CNN-based object detectors hyper-parameters. In this work, we propose
the use of Black-box optimization methods to tune the prior/default box scales
in Faster R-CNN and SSD, using Bayesian Optimization, SMAC, and CMA-ES. We show
that by tuning the input image size and prior box anchor scale on Faster R-CNN
mAP increases by 2% on PASCAL VOC 2007, and by 3% with SSD. On the COCO dataset
with SSD there are mAP improvement in the medium and large objects, but mAP
decreases by 1% in small objects. We also perform a regression analysis to find
the significant hyper-parameters to tune.
- Abstract(参考訳): オブジェクト検出器は、近年、高度なCNNアーキテクチャを使用して大幅に改善されている。
しかし、多くの検出器ハイパーパラメータは一般に手動で調整されるか、検出器の作者によって設定された値で使用される。
ハイパーパラメータの自動最適化は、CNNベースのオブジェクト検出器のハイパーパラメータの改善には研究されていない。
本研究では,ベイジアン最適化,SMAC,CMA-ESを用いて,より高速なR-CNNとSSDの事前/デフォルトボックススケールを調整するためのブラックボックス最適化手法を提案する。
入力画像サイズと事前ボックスアンカースケールを、より高速なr-cnnマップで調整することで、pascal voc 2007では2%、ssdでは3%増加した。
SSDを用いたCOCOデータセットでは、中規模および大規模オブジェクトではmAPが改善されているが、小オブジェクトではmAPが1%減少する。
我々はまた、調整すべき重要なハイパーパラメータを見つけるために回帰分析を行う。
関連論文リスト
- MADA: Meta-Adaptive Optimizers through hyper-gradient Descent [73.1383658672682]
メタ適応(MADA)は、複数の既知の収束を一般化し、トレーニング中に最も適した収束を動的に学習できる統合フレームワークである。
私たちは、MADAを視覚や言語タスクに関する他の人気と経験的に比較し、MADAがAdamや他の人気を一貫して上回っていることに気付きました。
AVGradは最大演算子を平均演算子に置き換えたもので、高次最適化に適している。
論文 参考訳(メタデータ) (2024-01-17T00:16:46Z) - AdaLomo: Low-memory Optimization with Adaptive Learning Rate [59.64965955386855]
大規模言語モデルに対する適応学習率(AdaLomo)を用いた低メモリ最適化を提案する。
AdaLomoはAdamWと同等の結果を得ると同時に、メモリ要件を大幅に削減し、大きな言語モデルをトレーニングするためのハードウェア障壁を低くする。
論文 参考訳(メタデータ) (2023-10-16T09:04:28Z) - Sensitivity-Aware Visual Parameter-Efficient Fine-Tuning [91.5113227694443]
私たちは新しいビジュアルを提案します。
Sensuous-Aware Fine-Tuning (SPT) スキーム。
SPTはタスク固有の重要な位置にトレーニング可能なパラメータを割り当てる。
ダウンストリーム認識タスクの幅広い実験により,SPTは既存のPEFT法と相補的であることが示された。
論文 参考訳(メタデータ) (2023-03-15T12:34:24Z) - Bayesian Hyperparameter Optimization for Deep Neural Network-Based
Network Intrusion Detection [2.304713283039168]
侵入検出問題に対してディープニューラルネットワーク(DNN)がうまく適用されている。
本稿では,ハイパーパラメータの自動最適化のための新しいベイズ最適化フレームワークを提案する。
提案手法は,ランダムな探索最適化手法よりも侵入検出性能が高いことを示す。
論文 参考訳(メタデータ) (2022-07-07T20:08:38Z) - AUTOMATA: Gradient Based Data Subset Selection for Compute-Efficient
Hyper-parameter Tuning [72.54359545547904]
ハイパーパラメータチューニングのための勾配に基づくサブセット選択フレームワークを提案する。
ハイパーパラメータチューニングに勾配ベースのデータサブセットを用いることで、3$times$-30$times$のターンアラウンド時間とスピードアップが大幅に向上することを示す。
論文 参考訳(メタデータ) (2022-03-15T19:25:01Z) - Tuning Word2vec for Large Scale Recommendation Systems [14.074296985040704]
Word2vecはNatural Lan-guage Processing(NLP)から生まれた強力な機械学習ツール
本研究では,制約のない最適化により,パラメータよりも平均221%のヒット率向上が得られることを示す。
予算制約付き高パラメータ最適化によるヒット率平均138%の改善を実証した。
論文 参考訳(メタデータ) (2020-09-24T10:50:19Z) - AABO: Adaptive Anchor Box Optimization for Object Detection via Bayesian
Sub-sampling [45.234059749103444]
オブジェクト検出のためのアンカーボックスを自動的に最適化する問題について検討する。
まず, 信頼度の高い物体検出システムにおいて, アンカー数, アンカースケール, 比率が重要な要因であることを示す。
本稿では,あるデータセットに対してより適切なアンカーボックスを決定するために,AABOという新しいパラメータ最適化手法を提案する。
論文 参考訳(メタデータ) (2020-07-18T05:44:26Z) - Automatic Setting of DNN Hyper-Parameters by Mixing Bayesian
Optimization and Tuning Rules [0.6875312133832078]
トレーニングおよび検証セット上で,ネットワークの結果を評価し解析するための新しいアルゴリズムを構築した。
我々は、一連のチューニングルールを使用して、新しいハイパーパラメータと/またはハイパーパラメータ検索スペースを減らし、より良い組み合わせを選択する。
論文 参考訳(メタデータ) (2020-06-03T08:53:48Z) - HyperSTAR: Task-Aware Hyperparameters for Deep Networks [52.50861379908611]
HyperSTARは、ディープニューラルネットワークのためのHPOをウォームスタートするタスク認識方式である。
生の画像から直接、データセット(タスク)表現とパフォーマンス予測器を学習する。
既存のメソッドと比較して、最高のパフォーマンスを達成するために、構成を50%少なく評価する。
論文 参考訳(メタデータ) (2020-05-21T08:56:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。