論文の概要: CSG0: Continual Urban Scene Generation with Zero Forgetting
- arxiv url: http://arxiv.org/abs/2112.03252v1
- Date: Mon, 6 Dec 2021 18:57:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 17:09:00.559261
- Title: CSG0: Continual Urban Scene Generation with Zero Forgetting
- Title(参考訳): CSG0:ゼロフォーミングによる連続都市景観生成
- Authors: Himalaya Jain, Tuan-Hung Vu, Patrick P\'erez and Matthieu Cord
- Abstract要約: 我々は、異なるドメインのストリーム上でGANをトレーニングする連続的なシーン生成設定に対処する。
このような連続的な設定では、ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・
- 参考スコア(独自算出の注目度): 37.95856115328483
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid advances in generative adversarial networks (GANs), the visual
quality of synthesised scenes keeps improving, including for complex urban
scenes with applications to automated driving. We address in this work a
continual scene generation setup in which GANs are trained on a stream of
distinct domains; ideally, the learned models should eventually be able to
generate new scenes in all seen domains. This setup reflects the real-life
scenario where data are continuously acquired in different places at different
times. In such a continual setup, we aim for learning with zero forgetting,
i.e., with no degradation in synthesis quality over earlier domains due to
catastrophic forgetting. To this end, we introduce a novel framework that not
only (i) enables seamless knowledge transfer in continual training but also
(ii) guarantees zero forgetting with a small overhead cost. While being more
memory efficient, thanks to continual learning, our model obtains better
synthesis quality as compared against the brute-force solution that trains one
full model for each domain. Especially, under extreme low-data regimes, our
approach significantly outperforms the brute-force one by a large margin.
- Abstract(参考訳): gans(generative adversarial network)の急速な進歩により、自動化運転への応用を含む複雑な都市シーンなど、合成シーンの視覚的品質が向上している。
この作業では、GANが異なるドメインのストリームでトレーニングされる連続的なシーン生成のセットアップに対処します。
この設定は、異なる場所でデータが連続的に取得される現実のシナリオを反映している。
このような連続的な設定において、我々は、ゼロ忘れ、すなわち、壊滅的な忘れによって、以前の領域よりも合成品質が低下しない学習を目標としている。
この目的のために、我々は単に新しいフレームワークを導入する。
i) 連続訓練におけるシームレスな知識伝達を可能にするだけでなく
(ii) オーバーヘッドコストの少ないゼロ忘れを保証します。
連続学習のおかげでメモリ効率は向上するが、各ドメインに対して1つのフルモデルをトレーニングするブルートフォースソリューションと比較して、より優れた合成品質が得られる。
特に、極端な低データ体制下では、我々のアプローチはブルートフォースよりも大きなマージンで優れています。
関連論文リスト
- Self-supervised novel 2D view synthesis of large-scale scenes with
efficient multi-scale voxel carving [77.07589573960436]
実シーンの新たなビューを生成するために,効率的なマルチスケールのボクセル彫刻手法を提案する。
我々の最終的な高解像度出力は、ボクセル彫刻モジュールによって自動的に生成されるデータに基づいて効率よく自己学習される。
実環境における複雑で大規模なシーンにおける本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-06-26T13:57:05Z) - Pre-training Contextualized World Models with In-the-wild Videos for
Reinforcement Learning [54.67880602409801]
本稿では,視覚制御タスクの学習を効率的に行うために,Wild 動画を多用した事前学習型世界モデルの課題について検討する。
本稿では、コンテキストと動的モデリングを明確に分離したContextualized World Models(ContextWM)を紹介する。
実験により,ContextWMを内蔵したWildビデオ事前学習は,モデルベース強化学習のサンプル効率を大幅に向上できることが示された。
論文 参考訳(メタデータ) (2023-05-29T14:29:12Z) - CoDEPS: Online Continual Learning for Depth Estimation and Panoptic
Segmentation [28.782231314289174]
深層学習に基づく単眼深度推定とパノプティックセグメンテーションのための連続学習をオンラインで導入する。
そこで本研究では,パノプティカルセグメンテーションに適応する擬似ラベルを生成するための新しいドメイン混合手法を提案する。
我々は,固定サイズのリプレイバッファを構築するためのサンプリング戦略を活用することで,ロボットシステムの限られたストレージ容量に明示的に対処する。
論文 参考訳(メタデータ) (2023-03-17T17:31:55Z) - Investigating Tradeoffs in Real-World Video Super-Resolution [90.81396836308085]
実世界のビデオ超解像(VSR)モデルは、一般化性を改善するために様々な劣化で訓練されることが多い。
最初のトレードオフを軽減するために,性能を犠牲にすることなく,最大40%のトレーニング時間を削減できる劣化手法を提案する。
そこで本研究では,多種多様な実世界の低品質映像系列を含むビデオLQデータセットを提案する。
論文 参考訳(メタデータ) (2021-11-24T18:58:21Z) - Learning Rich Nearest Neighbor Representations from Self-supervised
Ensembles [60.97922557957857]
推論時間における勾配降下から直接表現を学習する新しい手法により、自己教師付きモデルアンサンブルを行うためのフレームワークを提供する。
この技術は、ドメイン内のデータセットと転送設定の両方において、k-nearestの隣人によって測定されるように、表現品質を改善する。
論文 参考訳(メタデータ) (2021-10-19T22:24:57Z) - StyleVideoGAN: A Temporal Generative Model using a Pretrained StyleGAN [70.31913835035206]
本稿では,映像合成問題に対する新しいアプローチを提案する。
トレーニング済みのStyleGANネットワークを利用することで、トレーニング対象の外観を制御できます。
我々の時間的アーキテクチャは、RGBフレームのシーケンスではなく、StyleGANの潜在符号のシーケンスに基づいて訓練される。
論文 参考訳(メタデータ) (2021-07-15T09:58:15Z) - Shared and Private VAEs with Generative Replay for Continual Learning [1.90365714903665]
継続的学習は、学習済みのタスクを忘れずに新しいタスクを学習しようとする。
既存のartificial neural network (ann)モデルのほとんどは失敗するが、人間は生涯にわたって過去の作品を思い出して同じことをする。
我々は,MNIST,Permuted MNIST(QMNIST),CIFAR100,MiniImageNetデータセットなどの視覚的連続学習ベンチマークにおいて,このハイブリッドモデルの有効性を示す。
論文 参考訳(メタデータ) (2021-05-17T06:18:36Z) - Adversarial Training of Variational Auto-encoders for Continual
Zero-shot Learning [1.90365714903665]
本稿では,全タスクの情報を保持する共有VAEモジュールとタスク固有のプライベートVAEモジュールで構成されるハイブリッドネットワークを提案する。
モデルのサイズは各タスクで増加し、タスク固有のスキルの破滅的な忘れを防止する。
ZSL (Zero-Shot Learning) と GZSL (Generalized Zero-Shot Learning) による逐次学習よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-02-07T11:21:24Z) - Enabling Continual Learning with Differentiable Hebbian Plasticity [18.12749708143404]
連続学習は、獲得した知識を保護しながら、新しいタスクや知識を順次学習する問題である。
破滅的な忘れ物は、そのような学習プロセスを実行するニューラルネットワークにとって、大きな課題となる。
微分可能なヘビアン塑性からなるヘビアンコンソリデーションモデルを提案する。
論文 参考訳(メタデータ) (2020-06-30T06:42:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。