論文の概要: Lightweight Long-Range Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2209.03793v1
- Date: Thu, 8 Sep 2022 13:05:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-09 12:44:00.790679
- Title: Lightweight Long-Range Generative Adversarial Networks
- Title(参考訳): 軽量ロングランジ生成対向ネットワーク
- Authors: Bowen Li, Thomas Lukasiewicz
- Abstract要約: 本稿では、画像生成プロセスにおける長距離依存性を効果的にキャプチャできる、新しい軽量な生成対向ネットワークを提案する。
提案した長距離モジュールは、トレーニングを安定させる正規化として機能し、画素間の負の関係を強調することができる。
我々の新しいロングレンジモジュールは、いくつかの追加パラメータしか導入せず、既存のモデルに簡単に挿入して、ロングレンジの依存関係をキャプチャする。
- 参考スコア(独自算出の注目度): 58.16484259508973
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce novel lightweight generative adversarial
networks, which can effectively capture long-range dependencies in the image
generation process, and produce high-quality results with a much simpler
architecture. To achieve this, we first introduce a long-range module, allowing
the network to dynamically adjust the number of focused sampling pixels and to
also augment sampling locations. Thus, it can break the limitation of the fixed
geometric structure of the convolution operator, and capture long-range
dependencies in both spatial and channel-wise directions. Also, the proposed
long-range module can highlight negative relations between pixels, working as a
regularization to stabilize training. Furthermore, we propose a new generation
strategy through which we introduce metadata into the image generation process
to provide basic information about target images, which can stabilize and speed
up the training process. Our novel long-range module only introduces few
additional parameters and is easily inserted into existing models to capture
long-range dependencies. Extensive experiments demonstrate the competitive
performance of our method with a lightweight architecture.
- Abstract(参考訳): 本稿では,画像生成プロセスの長距離依存性を効果的に捉え,よりシンプルなアーキテクチャで高品質な結果を生成する,新しい軽量生成逆ネットワークを提案する。
これを実現するために,まず,ネットワークが集束したサンプリング画素数を動的に調整し,サンプリング位置を増加させる長距離モジュールを導入する。
これにより、畳み込み演算子の固定幾何構造の制限を破り、空間的およびチャネル的に長い範囲の依存関係を捉えることができる。
また、提案された長距離モジュールはピクセル間の負の関係を強調することができ、トレーニングを安定化するための正規化として機能する。
さらに、画像生成プロセスにメタデータを導入し、目標画像に関する基本的な情報を提供し、トレーニングプロセスの安定化と高速化を可能にする新しい生成戦略を提案する。
提案する長距離モジュールは,少数のパラメータしか導入せず,既存モデルに容易に挿入して長距離依存性をキャプチャする。
広範な実験により,この手法の軽量アーキテクチャによる競合性能を実証した。
関連論文リスト
- Grid: Omni Visual Generation [29.363916460022427]
現在のアプローチでは、膨大な計算コストでスクラッチから特別なビデオモデルを構築するか、イメージジェネレータに別のモーションモジュールを追加するかのどちらかである。
現代の画像生成モデルは、暗黙の時間的理解を伴う構造的レイアウトの処理において、未利用の可能性を秘めている。
本稿では,時間的シーケンスをグリッドレイアウトとして再構成し,視覚的シーケンスの全体的処理を可能にするGRIDを提案する。
論文 参考訳(メタデータ) (2024-12-14T07:22:03Z) - A Simple Approach to Unifying Diffusion-based Conditional Generation [63.389616350290595]
多様な条件生成タスクを処理するための、シンプルで統一されたフレームワークを導入します。
提案手法は,異なる推論時間サンプリング方式による多目的化を実現する。
我々のモデルは、非親密なアライメントや粗い条件付けのような追加機能をサポートしています。
論文 参考訳(メタデータ) (2024-10-15T09:41:43Z) - Parallel Cross Strip Attention Network for Single Image Dehazing [15.246376325081973]
単一画像デハジングは、ぼんやりとしたイメージを復元し、透明で高品質なビジュアルを作り出すことを目的としている。
伝統的な畳み込みモデルは、受容野のサイズが限られているため、長距離依存に苦しむ。
マルチスケール戦略を用いた並列Stripe Cross Attention (PCSA) に基づく新しいデハージングネットワークを提案する。
論文 参考訳(メタデータ) (2024-05-09T14:50:07Z) - RAVEN: Rethinking Adversarial Video Generation with Efficient Tri-plane Networks [93.18404922542702]
本稿では,長期的空間的および時間的依存関係に対処する新しいビデオ生成モデルを提案する。
提案手法は,3次元認識型生成フレームワークにインスパイアされた,明示的で単純化された3次元平面のハイブリッド表現を取り入れたものである。
我々のモデルは高精細度ビデオクリップを解像度256時間256$ピクセルで合成し、フレームレート30fpsで5ドル以上まで持続する。
論文 参考訳(メタデータ) (2024-01-11T16:48:44Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - TcGAN: Semantic-Aware and Structure-Preserved GANs with Individual
Vision Transformer for Fast Arbitrary One-Shot Image Generation [11.207512995742999]
画像の内部パッチから学習する生成的敵ネットワークを持つワンショット画像生成(OSG)は、世界中で注目を集めている。
本稿では,既存のワンショット画像生成手法の欠点を克服するために,個々の視覚変換器を用いた構造保存方式TcGANを提案する。
論文 参考訳(メタデータ) (2023-02-16T03:05:59Z) - Content-aware Warping for View Synthesis [110.54435867693203]
本稿では,比較的大きな近傍の画素の重みを,軽量ニューラルネットワークによる文脈情報から適応的に学習するコンテンツ認識ワープを提案する。
この学習可能なワープモジュールに基づいて、2つのソースビューから新しいビューを合成するエンド・ツー・エンドの学習ベースのフレームワークを提案する。
広いベースラインと非構造的多視点データセットを有する構造的光フィールドデータセットの実験結果から,提案手法は,定量的かつ視覚的に,最先端の手法を著しく上回ることを示した。
論文 参考訳(メタデータ) (2022-01-22T11:35:05Z) - Adaptive Single Image Deblurring [43.02281823557039]
本稿では,画像間の大きなぼやけた変化を扱うために,効率的な画素適応化と特徴注意設計を提案する。
また、性能を大幅に向上させる効果的なコンテンツ認識グローバルローカルフィルタリングモジュールを提案する。
論文 参考訳(メタデータ) (2022-01-01T10:10:19Z) - Learning Enriched Features for Real Image Restoration and Enhancement [166.17296369600774]
畳み込みニューラルネットワーク(CNN)は、画像復元作業における従来のアプローチよりも劇的に改善されている。
ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とした,新しいアーキテクチャを提案する。
提案手法は,高解像度の空間的詳細を同時に保存しながら,複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
論文 参考訳(メタデータ) (2020-03-15T11:04:30Z) - Concurrently Extrapolating and Interpolating Networks for Continuous
Model Generation [34.72650269503811]
本稿では,一組の特定効果ラベル画像のみを必要とするモデル列を形成するための,シンプルで効果的なモデル生成戦略を提案する。
提案手法は一連の連続モデルの生成が可能であり,画像平滑化のための最先端手法よりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-01-12T04:44:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。