論文の概要: Towards Continual, Online, Unsupervised Depth
- arxiv url: http://arxiv.org/abs/2103.00369v2
- Date: Tue, 2 Mar 2021 02:36:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-03 17:07:20.875260
- Title: Towards Continual, Online, Unsupervised Depth
- Title(参考訳): 絶え間ない、オンライン、無監視の深さに向けて
- Authors: Muhammad Umar Karim Khan
- Abstract要約: ニューラルネットワークがデプロイ中にトレーニングするオンライン適応は、教師なし学習によって便利なソリューションを提供する。
この作業は、入力がオンラインで時間的に関連付けられており、トレーニングは完全に教師なしである、実用的なオンライン適応を扱う。
タスク境界のない正規化とリプレイに基づく手法は、オンラインデータに適応しながら破滅的な忘れ込みを避けるために提案される。
- 参考スコア(独自算出の注目度): 4.9342793303029975
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although depth extraction with passive sensors has seen remarkable
improvement with deep learning, these approaches may fail to obtain correct
depth if they are exposed to environments not observed during training. Online
adaptation, where the neural network trains while deployed, with unsupervised
learning provides a convenient solution. However, online adaptation causes a
neural network to forget the past. Thus, past training is wasted and the
network is not able to provide good results if it observes past scenes. This
work deals with practical online-adaptation where the input is online and
temporally-correlated, and training is completely unsupervised. Regularization
and replay-based methods without task boundaries are proposed to avoid
catastrophic forgetting while adapting to online data. Experiments are
performed on different datasets with both structure-from-motion and stereo.
Results of forgetting as well as adaptation are provided, which are superior to
recent methods. The proposed approach is more inline with the artificial
general intelligence paradigm as the neural network learns the scene where it
is deployed without any supervision (target labels and tasks) and without
forgetting about the past. Code is available at github.com/umarKarim/cou_stereo
and github.com/umarKarim/cou_sfm.
- Abstract(参考訳): 受動センサによる深度抽出は深層学習によって著しく改善されているが、トレーニング中に観察されていない環境にさらされた場合、これらのアプローチは正確な深度を得ることができない可能性がある。
ニューラルネットワークがデプロイ中にトレーニングするオンライン適応は、教師なし学習によって便利なソリューションを提供する。
しかし、オンライン適応は、ニューラルネットワークが過去を忘れる原因となります。
このように、過去のトレーニングは無駄にされ、過去のシーンを観察してもネットワークは良い結果が得られない。
この作業は、入力がオンラインで時間的に関連付けられており、トレーニングは完全に教師なしである、実用的なオンライン適応を扱う。
タスク境界のない正規化とリプレイに基づく手法は、オンラインデータに適応しながら破滅的な忘れ込みを避けるために提案される。
実験は、構造から運動とステレオの両方の異なるデータセット上で行われる。
近年の手法よりも優れている適応性とともに忘れられる結果が得られる。
提案されたアプローチは、ニューラルネットワークが監視(ターゲットラベルとタスク)なしでデプロイされる場面を学習し、過去を忘れずに展開するという、人工知能のパラダイムに合致している。
コードは github.com/umarKarim/cou_stereo と github.com/umarKarim/cou_sfm で入手できる。
関連論文リスト
- Recursive Least-Squares Estimator-Aided Online Learning for Visual
Tracking [58.14267480293575]
オフライン学習を必要とせず、簡単な効果的なオンライン学習手法を提案する。
これは、モデルが以前見たオブジェクトに関する知識を記憶するための、内蔵されたメモリ保持メカニズムを可能にする。
我々は、RT-MDNetにおける多層パーセプトロンと、DiMPにおける畳み込みニューラルネットワークの追跡のためのオンライン学習ファミリーにおける2つのネットワークに基づくアプローチを評価する。
論文 参考訳(メタデータ) (2021-12-28T06:51:18Z) - Provable Regret Bounds for Deep Online Learning and Control [77.77295247296041]
我々は、損失関数がニューラルネットワークのパラメータを最適化するために適応できることを示し、後から最も優れたネットと競合することを示す。
オンライン設定におけるこれらの結果の適用として、オンライン制御コントローラの証明可能なバウンダリを得る。
論文 参考訳(メタデータ) (2021-10-15T02:13:48Z) - Training Spiking Neural Networks Using Lessons From Deep Learning [28.827506468167652]
シナプスとニューロンの内部構造は、ディープラーニングの未来を垣間見ることができます。
いくつかのアイデアはニューロモルフィックエンジニアリングコミュニティでよく受け入れられ、一般的に使われているが、他のアイデアはここで初めて提示または正当化されている。
PythonパッケージであるsnnTorchを使って、この論文を補完する一連のインタラクティブチュートリアルも利用可能である。
論文 参考訳(メタデータ) (2021-09-27T09:28:04Z) - Training Deep Networks from Zero to Hero: avoiding pitfalls and going
beyond [59.94347858883343]
このチュートリアルでは、基本的なステップと、モデルを改善するためのより最近のオプションを取り上げている。
これは特に、課題のデータセットほど準備が不十分なデータセットで有用である。
論文 参考訳(メタデータ) (2021-09-06T21:31:42Z) - Online unsupervised Learning for domain shift in COVID-19 CT scan
datasets [0.0]
オンライン教師なし学習は、受信データにドメインシフトがある状況に対処するために提案されている。
本研究の目的は、オンラインの教師なし学習が、新型コロナウイルスのCTスキャン分類モデルを少しのドメインシフトに適応させるのに役立つかどうかを確かめることである。
論文 参考訳(メタデータ) (2021-07-31T00:03:18Z) - Unsupervised Deep Learning by Injecting Low-Rank and Sparse Priors [5.5586788751870175]
我々は,高次元データの性質を簡潔に捉えるために,深層学習に疎結合を取り入れることに重点を置いている。
低ランクおよびスパース先行値を用いたバックグラウンドサブトラクションのための教師なしU-Net学習を実演する。
論文 参考訳(メタデータ) (2021-06-21T08:41:02Z) - Seasonal Contrast: Unsupervised Pre-Training from Uncurated Remote
Sensing Data [64.40187171234838]
季節的コントラスト(SeCo)は、リモートセンシング表現のドメイン内事前トレーニングにラベルのないデータを活用するための効果的なパイプラインである。
SeCoは、転送学習を容易にし、再リモートセンシングアプリケーションの急速な進歩を可能にするために公開されます。
論文 参考訳(メタデータ) (2021-03-30T18:26:39Z) - Auto-Rectify Network for Unsupervised Indoor Depth Estimation [119.82412041164372]
ハンドヘルド環境に現れる複雑な自我運動が,学習深度にとって重要な障害であることが確認された。
本稿では,相対回転を除去してトレーニング画像の修正を効果的に行うデータ前処理手法を提案する。
その結果、従来の教師なしSOTA法よりも、難易度の高いNYUv2データセットよりも優れていた。
論文 参考訳(メタデータ) (2020-06-04T08:59:17Z) - Side-Tuning: A Baseline for Network Adaptation via Additive Side
Networks [95.51368472949308]
適応は、トレーニングデータが少ない場合や、ネットワークのプリエンプションをエンコードしたい場合などに有効である。
本稿では,サイドチューニングという簡単な方法を提案する。
論文 参考訳(メタデータ) (2019-12-31T18:52:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。