論文の概要: Bootstrapped Self-Supervised Training with Monocular Video for Semantic
Segmentation and Depth Estimation
- arxiv url: http://arxiv.org/abs/2103.11031v1
- Date: Fri, 19 Mar 2021 21:28:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-23 14:19:58.527412
- Title: Bootstrapped Self-Supervised Training with Monocular Video for Semantic
Segmentation and Depth Estimation
- Title(参考訳): セマンティックセグメンテーションと深さ推定のための単眼ビデオを用いた自己監督型ブートストラップトレーニング
- Authors: Yihao Zhang and John J. Leonard
- Abstract要約: ラベル付きデータセット上の教師付きトレーニングでシステムが初期ブートストラップされる自己教師付き学習問題を定式化する。
本研究では,単眼映像におけるフレーム間の時間的一貫性を利用して自己監督訓練を行う。
さらに,自己指導型学習フレームワークは,ネットワークが純粋指導型トレーニングや自己指導型トレーニングよりも深度推定を学習しやすいことを示す。
- 参考スコア(独自算出の注目度): 11.468537169201083
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For a robot deployed in the world, it is desirable to have the ability of
autonomous learning to improve its initial pre-set knowledge. We formalize this
as a bootstrapped self-supervised learning problem where a system is initially
bootstrapped with supervised training on a labeled dataset and we look for a
self-supervised training method that can subsequently improve the system over
the supervised training baseline using only unlabeled data. In this work, we
leverage temporal consistency between frames in monocular video to perform this
bootstrapped self-supervised training. We show that a well-trained
state-of-the-art semantic segmentation network can be further improved through
our method. In addition, we show that the bootstrapped self-supervised training
framework can help a network learn depth estimation better than pure supervised
training or self-supervised training.
- Abstract(参考訳): 世界で展開されているロボットにとって、初期設定知識を改善するために自律的な学習能力を持つことが望ましい。
ラベル付きデータセット上の教師付きトレーニングでシステムが初期ブートストラップされた自己教師付き学習問題として定式化し,ラベル付きデータのみを使用して教師付きトレーニングベースライン上でシステムを改善する自己教師付きトレーニング方法を提案する。
本研究では,単眼映像におけるフレーム間の時間的一貫性を利用して自己監督訓練を行う。
本手法により, 十分に訓練されたセマンティクスセグメンテーションネットワークをさらに改善できることを示す。
さらに,自己指導型学習フレームワークは,ネットワークが純粋指導型トレーニングや自己指導型トレーニングよりも深度推定を学習しやすいことを示す。
関連論文リスト
- DINO Pre-training for Vision-based End-to-end Autonomous Driving [0.0]
本研究では,ラベルのない自己蒸留法(DINO)を用いた運転エージェントの視覚エンコーダの事前学習を提案する。
Leaderboard のベンチマークにより,CARLA環境における実験により,提案した事前学習は,分類に基づく事前学習よりも効率的であることが判明した。
論文 参考訳(メタデータ) (2024-07-15T15:18:57Z) - Robot Fine-Tuning Made Easy: Pre-Training Rewards and Policies for
Autonomous Real-World Reinforcement Learning [58.3994826169858]
ロボット強化学習のためのリセット不要な微調整システムであるRoboFuMEを紹介する。
我々の洞察は、オフラインの強化学習技術を利用して、事前訓練されたポリシーの効率的なオンライン微調整を確保することである。
提案手法では,既存のロボットデータセットからのデータを組み込んで,目標タスクを3時間以内の自律現実体験で改善することができる。
論文 参考訳(メタデータ) (2023-10-23T17:50:08Z) - Analyzing the Sample Complexity of Self-Supervised Image Reconstruction
Methods [24.840134419242414]
クリーンな画像とノイズ測定のペアによるディープニューラルネットワークの監視トレーニングは、多くの画像再構成タスクにおいて最先端のパフォーマンスを達成する。
自己監督手法は、クリーンな画像なしでノイズ測定のみに基づくトレーニングを可能にする。
このような自己教師型トレーニングでトレーニングされたモデルが、教師型トレーニングでトレーニングされたモデルと同等であることを示す。
論文 参考訳(メタデータ) (2023-05-30T14:42:04Z) - Self-Supervised Multi-Object Tracking For Autonomous Driving From
Consistency Across Timescales [53.55369862746357]
自己管理型マルチオブジェクトトラッカーは、生のドメイン固有データから学習できるという大きな可能性を秘めている。
しかし、その再識別精度は、監督対象よりも低い。
本稿では,複数の連続フレームから再同定特徴を自己教師付きで学習できる学習目標を提案する。
論文 参考訳(メタデータ) (2023-04-25T20:47:29Z) - Self-Distillation for Further Pre-training of Transformers [83.84227016847096]
我々は、さらなる事前学習段階の正則化として自己蒸留を提案する。
画像およびテキスト分類タスクのための様々なベンチマークデータセットにおける自己蒸留の有効性を実証的に検証する。
論文 参考訳(メタデータ) (2022-09-30T02:25:12Z) - Preserve Pre-trained Knowledge: Transfer Learning With Self-Distillation
For Action Recognition [8.571437792425417]
本研究では,大規模データセットから学習した事前学習モデルから知識を保存するために,微調整における自己蒸留を併用した新しい伝達学習手法を提案する。
具体的には,最後のエポックから教師モデルとしてエンコーダを固定し,トランスファー学習における現在のエポックからエンコーダのトレーニングを指導する。
論文 参考訳(メタデータ) (2022-05-01T16:31:25Z) - Reinforcement Learning with Action-Free Pre-Training from Videos [95.25074614579646]
本稿では,ビデオにおける生成前学習を通じて動的理解に役立つ表現を学習するフレームワークを提案する。
我々のフレームワークは、視覚に基づく強化学習の最終性能とサンプル効率の両方を著しく改善する。
論文 参考訳(メタデータ) (2022-03-25T19:44:09Z) - Better Self-training for Image Classification through Self-supervision [3.492636597449942]
自己監督(Self-supervision)は、自動生成されたプレテキストタスクを解決し、手動による監督なしに学習することである。
本稿では,画像分類の精度を高めるために,自己訓練に自己監督を取り入れる3つの方法について検討する。
論文 参考訳(メタデータ) (2021-09-02T08:24:41Z) - Learning Actor-centered Representations for Action Localization in
Streaming Videos using Predictive Learning [18.757368441841123]
ストリーミングビデオのアクションの認識やローカライズなどのイベント認識タスクは、視覚的な理解タスクに取り組む上で不可欠です。
我々は,連続的階層的予測学習という概念を通じて,テクスタクタ中心の表現を学習する問題に取り組む。
イベント知覚の認知理論に触発され、新しい自己監督型フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-29T06:06:58Z) - How Well Self-Supervised Pre-Training Performs with Streaming Data? [73.5362286533602]
ストリーミング形式でデータが収集される現実のシナリオでは、ジョイントトレーニングスキームは通常、ストレージ重大で時間を要する。
ストリーミングデータでどのように連続的な自己監督プリトレーニングが実行されるかは不明です。
ストリーミングデータ内の分散シフトが軽度である場合,逐次自己教師付き学習は共同学習とほぼ同等の性能を示す。
論文 参考訳(メタデータ) (2021-04-25T06:56:48Z) - Auto-Rectify Network for Unsupervised Indoor Depth Estimation [119.82412041164372]
ハンドヘルド環境に現れる複雑な自我運動が,学習深度にとって重要な障害であることが確認された。
本稿では,相対回転を除去してトレーニング画像の修正を効果的に行うデータ前処理手法を提案する。
その結果、従来の教師なしSOTA法よりも、難易度の高いNYUv2データセットよりも優れていた。
論文 参考訳(メタデータ) (2020-06-04T08:59:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。