論文の概要: Sampling Training Data for Continual Learning Between Robots and the
Cloud
- arxiv url: http://arxiv.org/abs/2012.06739v1
- Date: Sat, 12 Dec 2020 05:52:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-10 10:23:30.604631
- Title: Sampling Training Data for Continual Learning Between Robots and the
Cloud
- Title(参考訳): ロボットとクラウドの連続学習のための学習データのサンプリング
- Authors: Sandeep Chinchali, Evgenya Pergament, Manabu Nakanoya, Eyal Cidon,
Edward Zhang, Dinesh Bharadia, Marco Pavone, and Sachin Katti
- Abstract要約: ロボットに搭載され、システムのボトルネックを低減するインテリジェントなサンプリングアルゴリズムであるHarvestNetを紹介します。
これは、道路建設現場の新しいデータセット、自動運転車のフィールドテスト、およびストリーミング顔認識上の機械学習モデルの精度を大幅に改善します。
ベースラインアルゴリズムよりも1.05-2.58倍正確であり、sscalablyは組み込みディープラーニングハードウェア上で動作する。
- 参考スコア(独自算出の注目度): 26.116999231118793
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Today's robotic fleets are increasingly measuring high-volume video and LIDAR
sensory streams, which can be mined for valuable training data, such as rare
scenes of road construction sites, to steadily improve robotic perception
models. However, re-training perception models on growing volumes of rich
sensory data in central compute servers (or the "cloud") places an enormous
time and cost burden on network transfer, cloud storage, human annotation, and
cloud computing resources. Hence, we introduce HarvestNet, an intelligent
sampling algorithm that resides on-board a robot and reduces system bottlenecks
by only storing rare, useful events to steadily improve perception models
re-trained in the cloud. HarvestNet significantly improves the accuracy of
machine-learning models on our novel dataset of road construction sites, field
testing of self-driving cars, and streaming face recognition, while reducing
cloud storage, dataset annotation time, and cloud compute time by between
65.7-81.3%. Further, it is between 1.05-2.58x more accurate than baseline
algorithms and scalably runs on embedded deep learning hardware. We provide a
suite of compute-efficient perception models for the Google Edge Tensor
Processing Unit (TPU), an extended technical report, and a novel video dataset
to the research community at https://sites.google.com/view/harvestnet.
- Abstract(参考訳): 今日のロボット艦隊は、ロボットの知覚モデルを改善するために、道路建設現場の稀なシーンのような貴重なトレーニングデータのために採掘できる、高ボリュームのビデオとLIDARセンサーストリームをますます測定している。
しかしながら、中央の計算サーバ(あるいは"クラウド")におけるリッチなセンサデータの量の増加に対する認識モデルの再トレーニングは、ネットワーク転送、クラウドストレージ、ヒューマンアノテーション、クラウドコンピューティングリソースに膨大な時間とコスト負担を課します。
そこで我々は,ロボット上に駐在するインテリジェントサンプリングアルゴリズムであるHarvestNetを導入し,希少かつ有用なイベントを格納するだけでシステムのボトルネックを低減し,クラウドで再トレーニングされた知覚モデルを改善する。
HarvestNetは、新しい道路建設現場の機械学習モデル、自動運転車のフィールドテスト、およびストリーミング顔認識の精度を大幅に向上させ、クラウドストレージ、データセットアノテーション時間、クラウド計算時間を65.7~81.3%削減した。
さらに、ベースラインアルゴリズムよりも1.05-2.58倍正確であり、scalablyは組み込みディープラーニングハードウェア上で動作する。
我々は、Google Edge Tensor Processing Unit(TPU)のための計算効率の高い知覚モデルスイート、拡張技術レポート、そして https://sites.google.com/view/harvestnetで研究コミュニティに新しいビデオデータセットを提供する。
関連論文リスト
- AutoSynth: Learning to Generate 3D Training Data for Object Point Cloud
Registration [69.21282992341007]
Auto Synthは、ポイントクラウド登録のための3Dトレーニングデータを自動的に生成する。
私たちはポイントクラウド登録ネットワークをもっと小さなサロゲートネットワークに置き換え、4056.43$のスピードアップを実現しました。
TUD-L,LINEMOD,Occluded-LINEMODに関する我々の研究結果は,検索データセットでトレーニングされたニューラルネットワークが,広く使用されているModelNet40データセットでトレーニングされたニューラルネットワークよりも一貫してパフォーマンスが向上していることを示す。
論文 参考訳(メタデータ) (2023-09-20T09:29:44Z) - Continual learning autoencoder training for a particle-in-cell
simulation via streaming [52.77024349608834]
今後のエクサスケール時代は 次世代の物理シミュレーションを 高解像度で提供します
これらのシミュレーションは高解像度であり、ディスク上に大量のシミュレーションデータを格納することはほぼ不可能であるため、機械学習モデルのトレーニングに影響を与える。
この研究は、ディスク上のデータなしで、実行中のシミュレーションにニューラルネットワークを同時にトレーニングするアプローチを示す。
論文 参考訳(メタデータ) (2022-11-09T09:55:14Z) - Continual learning on 3D point clouds with random compressed rehearsal [10.667104977730304]
本研究では,3Dポイントクラウドデータ上で連続学習が可能なニューラルネットワークアーキテクチャを提案する。
我々は,過去のデータを強く圧縮した集合を保存するために,点雲構造特性を利用する。
論文 参考訳(メタデータ) (2022-05-16T22:59:52Z) - EffCNet: An Efficient CondenseNet for Image Classification on NXP
BlueBox [0.0]
エッジデバイスは、安価なハードウェアと限られた冷却と計算資源のために、限られた処理能力を提供する。
我々はエッジデバイスのためのEffCNetと呼ばれる新しいディープ畳み込みニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-11-28T21:32:31Z) - Edge-Cloud Polarization and Collaboration: A Comprehensive Survey [61.05059817550049]
クラウドとエッジ両方のAIの体系的なレビューを行います。
私たちはクラウドとエッジモデリングの協調学習メカニズムを最初にセットアップしました。
我々は現在進行中の最先端AIトピックの可能性と実践経験について議論する。
論文 参考訳(メタデータ) (2021-11-11T05:58:23Z) - Point Cloud Pre-training by Mixing and Disentangling [35.18101910728478]
Mixing and Disentangling (MD)は、ポイントクラウド事前トレーニングのための自己教師付き学習アプローチである。
我々は,エンコーダ+我々の(MD)が,スクラッチから訓練したエンコーダを著しく上回り,迅速に収束することを示す。
この自己教師型学習によるポイントクラウドの試みが、大規模ラベル付きデータへの深い学習モデル依存を減らす道を開くことを願っている。
論文 参考訳(メタデータ) (2021-09-01T15:52:18Z) - Automated Machine Learning Techniques for Data Streams [91.3755431537592]
本稿では、最先端のオープンソースAutoMLツールを調査し、ストリームから収集したデータに適用し、時間とともにパフォーマンスがどのように変化するかを測定する。
この結果から,既製のAutoMLツールで十分な結果が得られることが示されたが,概念ドリフトや検出,適応といった手法が適用されれば,予測精度を時間とともに維持することが可能になる。
論文 参考訳(メタデータ) (2021-06-14T11:42:46Z) - DeepSatData: Building large scale datasets of satellite images for
training machine learning models [77.17638664503215]
本稿では,機械学習モデルの学習のための衛星画像データセットの自動生成のための設計検討を行う。
本稿では,ニューラルネットワークの深層学習と評価の観点から直面する課題について論じる。
論文 参考訳(メタデータ) (2021-04-28T15:13:12Z) - One-step regression and classification with crosspoint resistive memory
arrays [62.997667081978825]
高速で低エネルギーのコンピュータは、エッジでリアルタイム人工知能を実現するために要求されている。
ワンステップ学習は、ボストンの住宅のコスト予測と、MNIST桁認識のための2層ニューラルネットワークのトレーニングによって支援される。
結果は、クロスポイントアレイ内の物理計算、並列計算、アナログ計算のおかげで、1つの計算ステップで得られる。
論文 参考訳(メタデータ) (2020-05-05T08:00:07Z) - Characterizing and Modeling Distributed Training with Transient Cloud
GPU Servers [6.56704851092678]
CM-DAREを用いて,多様なクラスタ構成下での分散トレーニング性能を解析する。
私たちの経験的データセットには、3つのGPUタイプ、6つの地理的領域、20の畳み込みニューラルネットワーク、数千のGoogle Cloudサーバからの計測が含まれています。
また、回帰モデルを用いてトレーニング速度とオーバーヘッドを予測することが可能であることを示す。
論文 参考訳(メタデータ) (2020-04-07T01:49:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。