論文の概要: Model Parameter Identification via a Hyperparameter Optimization Scheme
for Autonomous Racing Systems
- arxiv url: http://arxiv.org/abs/2301.01470v4
- Date: Tue, 11 Apr 2023 08:36:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-12 18:29:38.074438
- Title: Model Parameter Identification via a Hyperparameter Optimization Scheme
for Autonomous Racing Systems
- Title(参考訳): ハイパーパラメータ最適化による自律走行システムのモデルパラメータ同定
- Authors: Hyunki Seong, Chanyoung Chung, and David Hyunchul Shim
- Abstract要約: ハイパーパラメータ最適化スキーム(MI-HPO)を用いたモデルパラメータ同定手法を提案する。
実験では、MI-HPOは従来のパラメータ同定法より13倍以上早く収束している。
モデルベースシステムを検証するために広範囲なフィールドテストを行い、安定した障害物回避と217km/hまでの高速運転を実証した。
- 参考スコア(独自算出の注目度): 3.613072342189595
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this letter, we propose a model parameter identification method via a
hyperparameter optimization scheme (MI-HPO). Our method adopts an efficient
explore-exploit strategy to identify the parameters of dynamic models in a
data-driven optimization manner. We utilize our method for model parameter
identification of the AV-21, a full-scaled autonomous race vehicle. We then
incorporate the optimized parameters for the design of model-based planning and
control systems of our platform. In experiments, MI-HPO exhibits more than 13
times faster convergence than traditional parameter identification methods.
Furthermore, the parametric models learned via MI-HPO demonstrate good fitness
to the given datasets and show generalization ability in unseen dynamic
scenarios. We further conduct extensive field tests to validate our model-based
system, demonstrating stable obstacle avoidance and high-speed driving up to
217 km/h at the Indianapolis Motor Speedway and Las Vegas Motor Speedway. The
source code for our work and videos of the tests are available at
https://github.com/hynkis/MI-HPO.
- Abstract(参考訳): 本稿では,ハイパーパラメータ最適化方式(MI-HPO)を用いたモデルパラメータ同定手法を提案する。
提案手法は,データ駆動最適化方式で動的モデルのパラメータを同定する効率的な探索探索戦略を採用する。
本手法は,フルスケールの自動運転車であるAV-21のモデルパラメータ同定に有効である。
次に、モデルベースの計画・制御システムの設計に最適化されたパラメータを組み込む。
実験では、MI-HPOは従来のパラメータ同定法より13倍以上早く収束している。
さらに、MI-HPOを用いて学習したパラメトリックモデルは、与えられたデータセットに適合し、目に見えない動的シナリオにおける一般化能力を示す。
我々はさらに,インディアナポリス・モーター・スピードウェイとラスベガス・モーター・スピードウェイで,安定的な障害物回避と最高217km/hの高速走行を実証し,モデルベースのシステムを検証するための広範囲なフィールドテストを実施した。
私たちの仕事とテストのビデオのソースコードは、https://github.com/hynkis/mi-hpoで閲覧できます。
関連論文リスト
- Improving Hyperparameter Optimization with Checkpointed Model Weights [16.509585437768063]
本研究では,トレーニングした重みのログ化されたチェックポイントを用いたニューラルネットワークのためのHPO法を提案する。
我々の手法である予測モデル探索(FMS)は、重みをガウス過程のディープカーネルサロゲートモデルに埋め込む。
論文 参考訳(メタデータ) (2024-06-26T17:59:54Z) - Epidemic Modeling using Hybrid of Time-varying SIRD, Particle Swarm
Optimization, and Deep Learning [6.363653898208231]
疫学モデルは、拡散パターンが静止している場合の流行をモデル化するのに最適である。
本研究では,疫病モデル,粒子群最適化,深層学習を含むハイブリッドモデルを開発した。
本研究は、米国、インド、英国という3カ国の影響を受けた3つの国について、そのモデルを評価する。
論文 参考訳(メタデータ) (2024-01-31T18:08:06Z) - E^2VPT: An Effective and Efficient Approach for Visual Prompt Tuning [55.50908600818483]
新しいタスクのための微調整された大規模な事前学習型ビジョンモデルは、パラメーター集約化が進んでいる。
本稿では,大規模なトランスフォーマーモデル適応のための効果的かつ効率的なビジュアルプロンプトチューニング(E2VPT)手法を提案する。
提案手法は2つのベンチマークにおいて,最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2023-07-25T19:03:21Z) - Quick-Tune: Quickly Learning Which Pretrained Model to Finetune and How [62.467716468917224]
本稿では,最適事前学習モデルとハイパーパラメータを共同で探索し,微調整する手法を提案する。
本手法は,一連のデータセット上で,事前学習したモデルの性能に関する知識を伝達する。
得られたアプローチによって、新しいデータセットの正確な事前学習モデルを迅速に選択できることを実証的に実証する。
論文 参考訳(メタデータ) (2023-06-06T16:15:26Z) - Automatic Parameterization for Aerodynamic Shape Optimization via Deep
Geometric Learning [60.69217130006758]
空力形状最適化のための形状パラメータ化を完全に自動化する2つの深層学習モデルを提案する。
どちらのモデルも、深い幾何学的学習を通じてパラメータ化し、人間の事前知識を学習された幾何学的パターンに埋め込むように最適化されている。
2次元翼の形状最適化実験を行い、2つのモデルに適用可能なシナリオについて論じる。
論文 参考訳(メタデータ) (2023-05-03T13:45:40Z) - On the Effectiveness of Parameter-Efficient Fine-Tuning [79.6302606855302]
現在、多くの研究が、パラメータのごく一部のみを微調整し、異なるタスク間で共有されるパラメータのほとんどを保持することを提案している。
これらの手法は, いずれも細粒度モデルであり, 新たな理論的解析を行う。
我々の理論に根ざした空間性の有効性にもかかわらず、調整可能なパラメータをどう選ぶかという問題はまだ未解決のままである。
論文 参考訳(メタデータ) (2022-11-28T17:41:48Z) - Scaling & Shifting Your Features: A New Baseline for Efficient Model
Tuning [126.84770886628833]
既存の微調整法は、事前訓練されたモデルの全てのパラメータ(フル微調整)をチューニングするか、最後の線形層(線形プローブ)のみをチューニングする。
そこで本研究では,SSFと呼ばれるパラメータ効率の高いファインタニング手法を提案する。
論文 参考訳(メタデータ) (2022-10-17T08:14:49Z) - No More Pesky Hyperparameters: Offline Hyperparameter Tuning for RL [28.31529154045046]
オフラインデータのログからハイパーパラメータをチューニングするための新しい手法を提案する。
まず, キャリブレーションモデルと呼ばれるオフラインデータから環境モデルを学び, キャリブレーションモデルにおける学習をシミュレートする。
我々は,その方法が有効でいつ失敗するかを,様々な設定で実証的に調べる。
論文 参考訳(メタデータ) (2022-05-18T04:26:23Z) - AUTOMATA: Gradient Based Data Subset Selection for Compute-Efficient
Hyper-parameter Tuning [72.54359545547904]
ハイパーパラメータチューニングのための勾配に基づくサブセット選択フレームワークを提案する。
ハイパーパラメータチューニングに勾配ベースのデータサブセットを用いることで、3$times$-30$times$のターンアラウンド時間とスピードアップが大幅に向上することを示す。
論文 参考訳(メタデータ) (2022-03-15T19:25:01Z) - An efficient estimation of time-varying parameters of dynamic models by
combining offline batch optimization and online data assimilation [0.0]
比較的低次元モデルの時間変化パラメータを推定する,効率的かつ実用的な手法を提案する。
オフラインバッチ最適化とオンラインデータ同化の組み合わせを提案する。
論文 参考訳(メタデータ) (2021-10-24T20:12:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。