論文の概要: CSG0: Continual Urban Scene Generation with Zero Forgetting
- arxiv url: http://arxiv.org/abs/2112.03252v1
- Date: Mon, 6 Dec 2021 18:57:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 17:09:00.559261
- Title: CSG0: Continual Urban Scene Generation with Zero Forgetting
- Title(参考訳): CSG0:ゼロフォーミングによる連続都市景観生成
- Authors: Himalaya Jain, Tuan-Hung Vu, Patrick P\'erez and Matthieu Cord
- Abstract要約: 我々は、異なるドメインのストリーム上でGANをトレーニングする連続的なシーン生成設定に対処する。
このような連続的な設定では、ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・
- 参考スコア(独自算出の注目度): 37.95856115328483
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid advances in generative adversarial networks (GANs), the visual
quality of synthesised scenes keeps improving, including for complex urban
scenes with applications to automated driving. We address in this work a
continual scene generation setup in which GANs are trained on a stream of
distinct domains; ideally, the learned models should eventually be able to
generate new scenes in all seen domains. This setup reflects the real-life
scenario where data are continuously acquired in different places at different
times. In such a continual setup, we aim for learning with zero forgetting,
i.e., with no degradation in synthesis quality over earlier domains due to
catastrophic forgetting. To this end, we introduce a novel framework that not
only (i) enables seamless knowledge transfer in continual training but also
(ii) guarantees zero forgetting with a small overhead cost. While being more
memory efficient, thanks to continual learning, our model obtains better
synthesis quality as compared against the brute-force solution that trains one
full model for each domain. Especially, under extreme low-data regimes, our
approach significantly outperforms the brute-force one by a large margin.
- Abstract(参考訳): gans(generative adversarial network)の急速な進歩により、自動化運転への応用を含む複雑な都市シーンなど、合成シーンの視覚的品質が向上している。
この作業では、GANが異なるドメインのストリームでトレーニングされる連続的なシーン生成のセットアップに対処します。
この設定は、異なる場所でデータが連続的に取得される現実のシナリオを反映している。
このような連続的な設定において、我々は、ゼロ忘れ、すなわち、壊滅的な忘れによって、以前の領域よりも合成品質が低下しない学習を目標としている。
この目的のために、我々は単に新しいフレームワークを導入する。
i) 連続訓練におけるシームレスな知識伝達を可能にするだけでなく
(ii) オーバーヘッドコストの少ないゼロ忘れを保証します。
連続学習のおかげでメモリ効率は向上するが、各ドメインに対して1つのフルモデルをトレーニングするブルートフォースソリューションと比較して、より優れた合成品質が得られる。
特に、極端な低データ体制下では、我々のアプローチはブルートフォースよりも大きなマージンで優れています。
関連論文リスト
- DGTR: Distributed Gaussian Turbo-Reconstruction for Sparse-View Vast Scenes [81.56206845824572]
新規ビュー合成(NVS)アプローチは、広大なシーン再構築において重要な役割を担っている。
大規模な環境下では、復元の質が悪くなる場合が少なくない。
本稿では,スパース・ビュー・ワイド・シーンのための効率的なガウス再構成のための分散フレームワークであるDGTRを提案する。
論文 参考訳(メタデータ) (2024-11-19T07:51:44Z) - Novel View Synthesis with Pixel-Space Diffusion Models [4.844800099745365]
新規ビュー合成(NVS)に遺伝子モデルがますます採用されている
画素空間における終端NVSに対して,現代的な拡散モデルアーキテクチャを適用した。
単視点データセットを利用した新しいNVSトレーニングスキームを導入し,その相対的多元性に着目した。
論文 参考訳(メタデータ) (2024-11-12T12:58:33Z) - Reusable Architecture Growth for Continual Stereo Matching [92.36221737921274]
我々は、教師付きおよび自己監督型の両方で、新しいシーンを継続的に学習するための、再利用可能なアーキテクチャ成長(RAG)フレームワークを紹介します。
RAGは、前のユニットを再利用し、良好な性能を得ることにより、成長中の高い再利用性を維持することができる。
また、推論時にシーン固有のアーキテクチャパスを適応的に選択するScene Routerモジュールを提案する。
論文 参考訳(メタデータ) (2024-03-30T13:24:58Z) - Pre-training Contextualized World Models with In-the-wild Videos for
Reinforcement Learning [54.67880602409801]
本稿では,視覚制御タスクの学習を効率的に行うために,Wild 動画を多用した事前学習型世界モデルの課題について検討する。
本稿では、コンテキストと動的モデリングを明確に分離したContextualized World Models(ContextWM)を紹介する。
実験により,ContextWMを内蔵したWildビデオ事前学習は,モデルベース強化学習のサンプル効率を大幅に向上できることが示された。
論文 参考訳(メタデータ) (2023-05-29T14:29:12Z) - CoDEPS: Online Continual Learning for Depth Estimation and Panoptic
Segmentation [28.782231314289174]
深層学習に基づく単眼深度推定とパノプティックセグメンテーションのための連続学習をオンラインで導入する。
そこで本研究では,パノプティカルセグメンテーションに適応する擬似ラベルを生成するための新しいドメイン混合手法を提案する。
我々は,固定サイズのリプレイバッファを構築するためのサンプリング戦略を活用することで,ロボットシステムの限られたストレージ容量に明示的に対処する。
論文 参考訳(メタデータ) (2023-03-17T17:31:55Z) - Investigating Tradeoffs in Real-World Video Super-Resolution [90.81396836308085]
実世界のビデオ超解像(VSR)モデルは、一般化性を改善するために様々な劣化で訓練されることが多い。
最初のトレードオフを軽減するために,性能を犠牲にすることなく,最大40%のトレーニング時間を削減できる劣化手法を提案する。
そこで本研究では,多種多様な実世界の低品質映像系列を含むビデオLQデータセットを提案する。
論文 参考訳(メタデータ) (2021-11-24T18:58:21Z) - StyleVideoGAN: A Temporal Generative Model using a Pretrained StyleGAN [70.31913835035206]
本稿では,映像合成問題に対する新しいアプローチを提案する。
トレーニング済みのStyleGANネットワークを利用することで、トレーニング対象の外観を制御できます。
我々の時間的アーキテクチャは、RGBフレームのシーケンスではなく、StyleGANの潜在符号のシーケンスに基づいて訓練される。
論文 参考訳(メタデータ) (2021-07-15T09:58:15Z) - Adversarial Training of Variational Auto-encoders for Continual
Zero-shot Learning [1.90365714903665]
本稿では,全タスクの情報を保持する共有VAEモジュールとタスク固有のプライベートVAEモジュールで構成されるハイブリッドネットワークを提案する。
モデルのサイズは各タスクで増加し、タスク固有のスキルの破滅的な忘れを防止する。
ZSL (Zero-Shot Learning) と GZSL (Generalized Zero-Shot Learning) による逐次学習よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-02-07T11:21:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。