論文の概要: Incremental Learning for Neural Radiance Field with Uncertainty-Filtered
Knowledge Distillation
- arxiv url: http://arxiv.org/abs/2212.10950v1
- Date: Wed, 21 Dec 2022 11:43:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 15:14:52.304252
- Title: Incremental Learning for Neural Radiance Field with Uncertainty-Filtered
Knowledge Distillation
- Title(参考訳): 不確実な知識蒸留によるニューラルラジアンス場のインクリメンタル学習
- Authors: Mengqi Guo, Chen Li, Gim Hee Lee
- Abstract要約: 近年のニューラル・ラディアンス・フィールド(NeRF)の表現は、新しいビュー合成と3D再構成のタスクにおいて大きな成功を収めている。
以前のトレーニングデータを再考することなく、ストリーミングデータから継続的に学習する場合には、破滅的な忘れの問題に悩まされる。
本稿では,大惨事的忘れの問題を軽減するために,学生と教師のパイプラインを提案する。
- 参考スコア(独自算出の注目度): 63.04781030984006
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent neural radiance field (NeRF) representation has achieved great success
in the tasks of novel view synthesis and 3D reconstruction. However, they
suffer from the catastrophic forgetting problem when continuously learning from
streaming data without revisiting the previous training data. This limitation
prohibits the application of existing NeRF models to scenarios where images
come in sequentially. In view of this, we explore the task of incremental
learning for neural radiance field representation in this work. We first
propose a student-teacher pipeline to mitigate the catastrophic forgetting
problem. Specifically, we iterate the process of using the student as the
teacher at the end of each incremental step and let the teacher guide the
training of the student in the next step. In this way, the student network is
able to learn new information from the streaming data and retain old knowledge
from the teacher network simultaneously. Given that not all information from
the teacher network is helpful since it is only trained with the old data, we
further introduce a random inquirer and an uncertainty-based filter to filter
useful information. We conduct experiments on the NeRF-synthetic360 and
NeRF-real360 datasets, where our approach significantly outperforms the
baselines by 7.3% and 25.2% in terms of PSNR. Furthermore, we also show that
our approach can be applied to the large-scale camera facing-outwards dataset
ScanNet, where we surpass the baseline by 60.0% in PSNR.
- Abstract(参考訳): 最近のneural radiance field(nerf)表現は、新しい視点合成と3次元再構成のタスクで大きな成功を収めている。
しかし、前回のトレーニングデータを再考することなく、ストリーミングデータから継続的に学習する際、破滅的な忘れの問題に悩まされる。
この制限は、画像が順次入ってくるシナリオに既存のNeRFモデルを適用することを禁止している。
そこで本研究では,神経放射場表現における漸進的学習の課題について考察する。
そこで我々はまず,大惨事的忘れの問題を軽減するために,学生と教師のパイプラインを提案する。
具体的には、各段階の最後に生徒を教師として使用するプロセスを反復し、次の段階において教師に生徒の訓練を指導させる。
このようにして、学生ネットワークはストリーミングデータから新しい情報を学び、教師ネットワークから古い知識を同時に保持することができる。
教師ネットワークから得られる全ての情報は、古いデータでのみ訓練されているため役に立たないので、我々はさらに、有用な情報をフィルタリングするためのランダムな問い合わせ器と不確実性に基づくフィルタを導入する。
我々はNeRF-synthetic360とNeRF-real360データセットで実験を行い、PSNRではベースラインの7.3%と25.2%を大きく上回っている。
さらに,PSNRのベースラインを60.0%越える大規模カメラ対外データセットScanNetにも,我々のアプローチが適用可能であることを示す。
関連論文リスト
- Negotiated Representations to Prevent Forgetting in Machine Learning
Applications [0.0]
破滅的な忘れは、機械学習の分野で重要な課題である。
本稿では,機械学習アプリケーションにおける破滅的忘れを防止する新しい方法を提案する。
論文 参考訳(メタデータ) (2023-11-30T22:43:50Z) - Hierarchical Supervision and Shuffle Data Augmentation for 3D
Semi-Supervised Object Detection [90.32180043449263]
最先端の3Dオブジェクト検出器は通常、高品質な3Dアノテーションを備えた大規模データセットで訓練される。
自然な治療法は、限られた量のラベル付きサンプルと豊富なラベル付きサンプルを活用することで、半教師付き学習(SSL)を採用することである。
本稿では,HSSDA(Hierarchical Supervision and Shuffle Data Augmentation)の新たなアプローチを提案する。
論文 参考訳(メタデータ) (2023-04-04T02:09:32Z) - Improved knowledge distillation by utilizing backward pass knowledge in
neural networks [17.437510399431606]
知識蒸留(KD)は、モデル圧縮において重要な技術の一つである。
本研究では,教師の後方パスから知識を抽出し,新たな補助訓練サンプルを作成する。
自然言語処理(NLP)と言語理解(Language understanding)の応用において,この手法がいかにうまく利用できるかを示す。
論文 参考訳(メタデータ) (2023-01-27T22:07:38Z) - Excess Risk of Two-Layer ReLU Neural Networks in Teacher-Student
Settings and its Superiority to Kernel Methods [58.44819696433327]
教師回帰モデルにおける2層ReLUニューラルネットワークのリスクについて検討する。
学生ネットワークは、どの解法よりも確実に優れていることがわかった。
論文 参考訳(メタデータ) (2022-05-30T02:51:36Z) - Increasing Depth of Neural Networks for Life-long Learning [2.0305676256390934]
本稿では,ニューラルネットワークの深度増加に基づく連続学習手法を提案する。
この研究は、ニューラルネットワークの深さを延ばすことが、生涯にわたる学習環境で有益かどうかを探求する。
論文 参考訳(メタデータ) (2022-02-22T11:21:41Z) - Learning Bayesian Sparse Networks with Full Experience Replay for
Continual Learning [54.7584721943286]
継続学習(CL)手法は、機械学習モデルが、以前にマスターされたタスクを壊滅的に忘れることなく、新しいタスクを学習できるようにすることを目的としている。
既存のCLアプローチは、しばしば、事前に確認されたサンプルのバッファを保持し、知識蒸留を行い、あるいはこの目標に向けて正規化技術を使用する。
我々は,現在および過去のタスクを任意の段階で学習するために,スパースニューロンのみを活性化し,選択することを提案する。
論文 参考訳(メタデータ) (2022-02-21T13:25:03Z) - Exploring Knowledge Distillation of a Deep Neural Network for
Multi-Script identification [8.72467690936929]
多言語スクリプト識別は、シーンテキスト画像に複雑な背景を持つ異なる言語からなる難しいタスクである。
深層ニューラルネットワークは教師モデルとして採用され、教師モデルの予測を利用して小さな学生ネットワークを訓練する。
論文 参考訳(メタデータ) (2021-02-20T12:54:07Z) - Teacher-Class Network: A Neural Network Compression Mechanism [2.257416403770908]
提案手法は,1人の生徒にのみ知識を伝達する代わりに,各生徒に知識の一部を伝達する。
我々の学生は問題固有のロジットの訓練を受けておらず、教師ネットワークで学んだ知識(センス表現)を模倣するように訓練されている。
提案した教師クラスアーキテクチャは,MNIST,Fashion MNIST,IMDB Movie Reviews,CAMVid,CIFAR-10,ImageNetなどのベンチマークデータセットで評価される。
論文 参考訳(メタデータ) (2020-04-07T11:31:20Z) - Neural Networks Are More Productive Teachers Than Human Raters: Active
Mixup for Data-Efficient Knowledge Distillation from a Blackbox Model [57.41841346459995]
我々は,ブラックボックス教師モデルから知識を抽出し,学生の深層ニューラルネットワークを視覚認識のために訓練する方法を,データ効率のよい方法で研究する。
混合学習とアクティブラーニングを融合した手法を提案する。
論文 参考訳(メタデータ) (2020-03-31T05:44:55Z) - Curriculum By Smoothing [52.08553521577014]
畳み込みニューラルネットワーク(CNN)は、画像分類、検出、セグメンテーションなどのコンピュータビジョンタスクにおいて顕著な性能を示している。
アンチエイリアスフィルタやローパスフィルタを用いてCNNの機能埋め込みを円滑化するエレガントなカリキュラムベースのスキームを提案する。
トレーニング中に特徴マップ内の情報量が増加するにつれて、ネットワークはデータのより優れた表現を徐々に学習することができる。
論文 参考訳(メタデータ) (2020-03-03T07:27:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。