論文の概要: Disentangling Regional Primitives for Image Generation
- arxiv url: http://arxiv.org/abs/2410.04421v1
- Date: Fri, 11 Oct 2024 11:29:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-02 07:51:01.053983
- Title: Disentangling Regional Primitives for Image Generation
- Title(参考訳): 画像生成のための地域プリミティブの分散化
- Authors: Zhengting Chen, Lei Cheng, Lianghui Ding, Quanshi Zhang,
- Abstract要約: 本手法は,ニューラルネットワークの中間層特徴からプリミティブ特徴成分を分離する。
このようにして、画像全体の生成は、事前に符号化された異なる原始的地域パターンの重ね合わせと見なすことができる。
- 参考スコア(独自算出の注目度): 23.446605413758192
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a method to explain the internal representation structure of a neural network for image generation. Specifically, our method disentangles primitive feature components from the intermediate-layer feature of the neural network, which ensures that each feature component is exclusively used to generate a specific set of image regions. In this way, the generation of the entire image can be considered as the superposition of different pre-encoded primitive regional patterns, each being generated by a feature component. We find that the feature component can be represented as an OR relationship between the demands for generating different image regions, which is encoded by the neural network. Therefore, we extend the Harsanyi interaction to represent such an OR interaction to disentangle the feature component. Experiments show a clear correspondence between each feature component and the generation of specific image regions.
- Abstract(参考訳): 本稿では,画像生成のためのニューラルネットワークの内部表現構造を説明する手法を提案する。
具体的には、ニューラルネットワークの中間層の特徴からプリミティブな特徴成分を分離し、各特徴成分が特定の画像領域を生成するためにのみ使用されることを保証する。
このようにして、画像全体の生成は、様々なプリエンコードされた原始的地域パターンの重ね合わせと見なすことができ、それぞれが特徴成分によって生成される。
特徴成分は、ニューラルネットワークによって符号化された異なる画像領域を生成する要求の間のOR関係として表現できる。
したがって、Harsanyi相互作用を拡張してそのようなOR相互作用を表現し、特徴成分をアンタングルする。
実験では、各特徴成分と特定の画像領域の生成との明確な対応を示す。
関連論文リスト
- Parallel Backpropagation for Shared-Feature Visualization [36.31730251757713]
最近の研究は、いくつかのカテゴリー外刺激が高レベルの視覚脳領域のニューロンを活性化することを示した。
これは、他の画像にもある好みのクラスに共通する視覚的特徴のためかもしれない。
本稿では,これらの特徴を可視化するためのディープラーニングに基づくアプローチを提案する。
論文 参考訳(メタデータ) (2024-05-16T05:56:03Z) - Image segmentation with traveling waves in an exactly solvable recurrent
neural network [71.74150501418039]
繰り返しニューラルネットワークは、シーンの構造特性に応じて、画像をグループに効果的に分割できることを示す。
本稿では,このネットワークにおけるオブジェクトセグメンテーションのメカニズムを正確に記述する。
次に、グレースケール画像中の単純な幾何学的対象から自然画像まで、入力をまたいで一般化するオブジェクトセグメンテーションの簡単なアルゴリズムを実証する。
論文 参考訳(メタデータ) (2023-11-28T16:46:44Z) - Using a Conditional Generative Adversarial Network to Control the
Statistical Characteristics of Generated Images for IACT Data Analysis [55.41644538483948]
画像のプロパティの値に応じて、画像を複数のクラスに分割し、新しい画像を生成する際に必要なクラスを指定する。
大気圧チェレンコフ望遠鏡(IACT)の画像の場合、重要な点は全画像ピクセル(画像サイズ)の明るさである。
我々は,TAIGA-IACT実験で得られた画像と類似した画像を生成するために,cGAN技術を使用した。
論文 参考訳(メタデータ) (2022-11-28T22:30:33Z) - ISG: I can See Your Gene Expression [13.148183268830879]
本稿では,組織スライド画像から遺伝子発現を正確に予測することを目的とする。
このようなスライド画像は、解像度が大きく、わずかに分散したテクスチャを有する。
既存の遺伝子発現法は主に汎用成分を用いて、テクスチャレス領域をフィルタリングし、特徴を抽出し、各領域を均一に集約する。
3つの新しいモジュールによるテクスチャ境界領域からの識別的特徴間の相互作用を利用するISGフレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-30T02:49:37Z) - Single Image Super-Resolution via a Dual Interactive Implicit Neural
Network [5.331665215168209]
本稿では,任意のスケール因子における単一画像の超解像処理のための新しい暗黙的ニューラルネットワークを提案する。
公開されているベンチマークデータセット上で、最先端技術に対するアプローチの有効性と柔軟性を実証する。
論文 参考訳(メタデータ) (2022-10-23T02:05:19Z) - Joint Learning of Deep Texture and High-Frequency Features for
Computer-Generated Image Detection [24.098604827919203]
本稿では,CG画像検出のための深いテクスチャと高周波特徴を有する共同学習戦略を提案する。
セマンティックセグメンテーションマップを生成して、アフィン変換操作を誘導する。
原画像と原画像の高周波成分の組み合わせを、注意機構を備えたマルチブランチニューラルネットワークに供給する。
論文 参考訳(メタデータ) (2022-09-07T17:30:40Z) - A Unified Architecture of Semantic Segmentation and Hierarchical
Generative Adversarial Networks for Expression Manipulation [52.911307452212256]
セマンティックセグメンテーションと階層的GANの統一アーキテクチャを開発する。
我々のフレームワークのユニークな利点は、将来的なセマンティックセグメンテーションネットワーク条件を生成モデルに渡すことである。
我々は,AffectNetとRaFDの2つの難解な表情翻訳ベンチマークとセマンティックセグメンテーションベンチマークであるCelebAMask-HQについて評価を行った。
論文 参考訳(メタデータ) (2021-12-08T22:06:31Z) - MOGAN: Morphologic-structure-aware Generative Learning from a Single
Image [59.59698650663925]
近年,1つの画像のみに基づく生成モデルによる完全学習が提案されている。
多様な外観のランダムなサンプルを生成するMOGANというMOrphologic-structure-aware Generative Adversarial Networkを紹介します。
合理的な構造の維持や外観の変化など、内部機能に重点を置いています。
論文 参考訳(メタデータ) (2021-03-04T12:45:23Z) - DoFE: Domain-oriented Feature Embedding for Generalizable Fundus Image
Segmentation on Unseen Datasets [96.92018649136217]
対象ドメインに対するCNNの一般化能力を向上させるために,新しいドメイン指向特徴埋め込み(DoFE)フレームワークを提案する。
私たちのDoFEフレームワークは、マルチソースドメインから学んだ追加のドメイン事前知識で、画像機能を動的に強化します。
本フレームワークは、未確認データセットのセグメンテーション結果を満足して生成し、他の領域の一般化やネットワークの正規化手法を超越する。
論文 参考訳(メタデータ) (2020-10-13T07:28:39Z) - Generative Hierarchical Features from Synthesizing Images [65.66756821069124]
画像合成の学習は、広範囲のアプリケーションにまたがって一般化可能な顕著な階層的な視覚的特徴をもたらす可能性があることを示す。
生成的階層的特徴(Generative Hierarchical Feature, GH-Feat)と呼ばれるエンコーダが生成する視覚的特徴は、生成的タスクと識別的タスクの両方に強い伝達性を有する。
論文 参考訳(メタデータ) (2020-07-20T18:04:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。