論文の概要: What data do we need for training an AV motion planner?
- arxiv url: http://arxiv.org/abs/2105.12337v1
- Date: Wed, 26 May 2021 05:37:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-28 00:40:05.975837
- Title: What data do we need for training an AV motion planner?
- Title(参考訳): avモーションプランナーの訓練にはどんなデータが必要ですか?
- Authors: Long Chen, Lukas Platinsky, Stefanie Speichert, Blazej Osinski, Oliver
Scheel, Yawei Ye, Hugo Grimmett, Luca del Pero, Peter Ondruska
- Abstract要約: 本研究では,擬似学習に基づくAVプランナの訓練に必要なセンサデータについて検討した。
その結果,10倍の低品質データによるトレーニングは,プランナー性能において1倍のAVグレードデータより優れていることがわかった。
- 参考スコア(独自算出の注目度): 8.081784897491062
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We investigate what grade of sensor data is required for training an
imitation-learning-based AV planner on human expert demonstration.
Machine-learned planners are very hungry for training data, which is usually
collected using vehicles equipped with the same sensors used for autonomous
operation. This is costly and non-scalable. If cheaper sensors could be used
for collection instead, data availability would go up, which is crucial in a
field where data volume requirements are large and availability is small. We
present experiments using up to 1000 hours worth of expert demonstration and
find that training with 10x lower-quality data outperforms 1x AV-grade data in
terms of planner performance. The important implication of this is that cheaper
sensors can indeed be used. This serves to improve data access and democratize
the field of imitation-based motion planning. Alongside this, we perform a
sensitivity analysis of planner performance as a function of perception range,
field-of-view, accuracy, and data volume, and the reason why lower-quality data
still provide good planning results.
- Abstract(参考訳): 本研究では,擬似学習に基づくAVプランナの訓練に必要なセンサデータについて検討した。
マシンを学習したプランナーはトレーニングデータに非常に飢えており、通常は自律運転に使用される同じセンサーを備えた車両を使用して収集される。
これは費用がかかり、スケールできない。
より安価なセンサーを代わりに使用すれば、データの可用性が向上し、データボリュームの要求が大きく、可用性が低い分野において重要なものになる。
最大1000時間分の実証実験を行い、10倍の低品質データでのトレーニングが1倍のavグレードのデータをプランナーのパフォーマンスで上回っていることを確認した。
重要な意味は、より安価なセンサーが実際に使用できるということだ。
これはデータアクセスを改善し、模倣ベースのモーションプランニングの分野を民主化するのに役立つ。
これと並行して,知覚範囲,視野,精度,データボリュームの関数としてプランナー性能の感度解析を行い,低品質データが依然として優れた計画結果を提供する理由について述べる。
関連論文リスト
- LESS: Selecting Influential Data for Targeted Instruction Tuning [64.78894228923619]
本稿では,データの影響を推定し,命令データ選択のための低ランクグレーディエント類似度探索を行うアルゴリズムであるLESSを提案する。
LESS選択したデータの5%のトレーニングは、さまざまなダウンストリームタスクにわたる完全なデータセットでのトレーニングよりも優れています。
我々の方法は、意図した下流アプリケーションに必要な推論スキルを識別するために、表面的なフォームキューを超えています。
論文 参考訳(メタデータ) (2024-02-06T19:18:04Z) - SPOT: Scalable 3D Pre-training via Occupancy Prediction for Learning Transferable 3D Representations [76.45009891152178]
トレーニング-ファインタニングアプローチは、さまざまな下流データセットとタスクをまたいだトレーニング済みのバックボーンを微調整することで、ラベル付けの負担を軽減することができる。
本稿では, 一般表現学習が, 占領予測のタスクを通じて達成できることを, 初めて示す。
本研究は,LiDAR 点の理解を促進するとともに,LiDAR の事前訓練における今後の進歩の道を開くことを目的とする。
論文 参考訳(メタデータ) (2023-09-19T11:13:01Z) - Machine Learning Force Fields with Data Cost Aware Training [94.78998399180519]
分子動力学(MD)シミュレーションを加速するために機械学習力場(MLFF)が提案されている。
最もデータ効率のよいMLFFであっても、化学精度に達するには数百フレームの力とエネルギーのラベルが必要になる。
我々は、安価な不正確なデータと高価な正確なデータの組み合わせを利用して、MLFFのデータコストを下げる多段階計算フレームワークASTEROIDを提案する。
論文 参考訳(メタデータ) (2023-06-05T04:34:54Z) - Human Activity Recognition Using Self-Supervised Representations of
Wearable Data [0.0]
HAR(Human Activity Recognition)のための正確なアルゴリズムの開発は、大規模な実世界のラベル付きデータセットの欠如によって妨げられている。
ここでは、トレーニング中に見えない実世界のデータセットで評価した場合、高い性能を有する6クラスHARモデルを開発する。
論文 参考訳(メタデータ) (2023-04-26T07:33:54Z) - Where Should I Spend My FLOPS? Efficiency Evaluations of Visual
Pre-training Methods [29.141145775835106]
固定されたFLOP予算が与えられた場合、代表的な視覚的タスクに対して高い正確性を得るために最適なデータセット、モデル、そして(自己監督的な)トレーニング方法は何ですか?
5つの大規模データセット(JFT-300M, ALIGN, ImageNet-1K, ImageNet-21K, COCO)と6つの事前学習方法(CLIP, DINO, SimCLR, BYOL, Masked Autoencoding, and supervised)を検討した。
本稿の結果は,自己管理手法が本質的に大規模で未処理なデータにスケールする,という一般的な仮定に疑問を投げかけるものである。
論文 参考訳(メタデータ) (2022-09-30T17:04:55Z) - How Much More Data Do I Need? Estimating Requirements for Downstream
Tasks [99.44608160188905]
小さなトレーニングデータセットと学習アルゴリズムがあれば、ターゲットの検証やテストのパフォーマンスに到達するのに、どれくらいのデータが必要か?
データ要求を過大評価または過小評価すると、十分な予算で回避できる相当なコストが発生する。
本ガイドラインを用いることで,機械学習システムのデータ要求を正確に推定し,開発時間とデータ取得コストの双方で節約することができる。
論文 参考訳(メタデータ) (2022-07-04T21:16:05Z) - Quantity over Quality: Training an AV Motion Planner with Large Scale
Commodity Vision Data [6.627822861228933]
本稿では,コモディティビジョンデータを用いた高性能なモーションプランナのトレーニングを,コストのごく一部で行うことができることを示す。
100hのコモディティビジョンデータを訓練したプランナーは、高価なHDデータを25hで上回ります。
私たちの知る限りでは、実世界のデータを使ってこれが可能であることを最初に実証しています。
論文 参考訳(メタデータ) (2022-03-03T12:39:18Z) - Self-Supervised Pre-Training for Transformer-Based Person
Re-Identification [54.55281692768765]
トランスフォーマーに基づく教師付き事前訓練は、人物再識別(ReID)において大きなパフォーマンスを達成する
ImageNetとReIDデータセットのドメインギャップのため、通常、パフォーマンスを高めるために、より大きなトレーニング済みデータセットが必要です。
この研究は、データとモデル構造の観点から、事前トレーニングデータセットとReIDデータセットのギャップを軽減することを目的としている。
論文 参考訳(メタデータ) (2021-11-23T18:59:08Z) - Yet it moves: Learning from Generic Motions to Generate IMU data from
YouTube videos [5.008235182488304]
我々は、加速度計とジャイロ信号の両方の一般的な動きの回帰モデルをトレーニングして、合成IMUデータを生成する方法を示す。
我々は、回帰モデルにより生成されたシミュレーションデータに基づいてトレーニングされたシステムが、実センサデータに基づいてトレーニングされたシステムのF1スコアの平均の約10%に到達できることを実証した。
論文 参考訳(メタデータ) (2020-11-23T18:16:46Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。