論文の概要: Capsule GAN Using Capsule Network for Generator Architecture
- arxiv url: http://arxiv.org/abs/2003.08047v1
- Date: Wed, 18 Mar 2020 05:14:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 09:48:38.239365
- Title: Capsule GAN Using Capsule Network for Generator Architecture
- Title(参考訳): カプセルネットワークを用いたジェネレータアーキテクチャのためのカプセルGAN
- Authors: Kanako Marusaki and Hiroshi Watanabe
- Abstract要約: 本稿では,キャプリケータだけでなく,ジェネレータ内でもCapsule Networkを用いた生成逆ネットワークであるCapsule GANを提案する。
CNNには、画像の特徴間の関係情報が失われる可能性があるという欠陥がある。
本稿では,この論文で提案したCapsule GANと,CNNとCapsule GANを用いた従来のGANを比較した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents Capsule GAN, a Generative adversarial network using
Capsule Network not only in the discriminator but also in the generator.
Recently, Generative adversarial networks (GANs) has been intensively studied.
However, generating images by GANs is difficult. Therefore, GANs sometimes
generate poor quality images. These GANs use convolutional neural networks
(CNNs). However, CNNs have the defect that the relational information between
features of the image may be lost. Capsule Network, proposed by Hinton in 2017,
overcomes the defect of CNNs. Capsule GAN reported previously uses Capsule
Network in the discriminator. However, instead of using Capsule Network,
Capsule GAN reported in previous studies uses CNNs in generator architecture
like DCGAN. This paper introduces two approaches to use Capsule Network in the
generator. One is to use DigitCaps layer from the discriminator as the input to
the generator. DigitCaps layer is the output layer of Capsule Network. It has
the features of the input images of the discriminator. The other is to use the
reverse operation of recognition process in Capsule Network in the generator.
We compare Capsule GAN proposed in this paper with conventional GAN using CNN
and Capsule GAN which uses Capsule Network in the discriminator only. The
datasets are MNIST, Fashion-MNIST and color images. We show that Capsule GAN
outperforms the GAN using CNN and the GAN using Capsule Network in the
discriminator only. The architecture of Capsule GAN proposed in this paper is a
basic architecture using Capsule Network. Therefore, we can apply the existing
improvement techniques for GANs to Capsule GAN.
- Abstract(参考訳): 本稿では,キャプリケータだけでなく,ジェネレータ内でもCapsule Networkを用いた生成逆ネットワークであるCapsule GANを提案する。
近年,GAN(Generative Adversarial Network)の研究が盛んに行われている。
しかし,GANによる画像生成は困難である。
したがって、GANは時に画質の悪い画像を生成する。
これらのGANは畳み込みニューラルネットワーク(CNN)を使用する。
しかし、cnnには画像の特徴間の関係情報が失われる可能性があるという欠陥がある。
2017年に hinton が提案した capsule network は cnn の欠陥を克服している。
Capsule GANは以前、差別装置でCapsule Networkを使用していると報告している。
しかし、Capsule Networkを使う代わりに、Capsule GANは以前の研究でDCGANのようなジェネレータアーキテクチャでCNNを使用していると報告している。
本稿では,ジェネレータにCapsule Networkを使用する2つのアプローチを紹介する。
1つは、ジェネレータへの入力として識別器からdigitcaps層を使用することである。
DigitCaps層はCapsule Networkの出力層である。
判別器の入力画像の特徴を有する。
もう1つは、ジェネレータ内のカプセルネットワークにおける認識プロセスの逆操作を使用することである。
本稿では,この論文で提案したCapsule GANと,CNNとCapsule GANを用いた従来のGANを比較した。
データセットはMNIST、Fashion-MNIST、カラー画像である。
Capsule GAN は CNN と Capsule Network で GAN より優れていることを示す。
本稿では, Capsule GAN のアーキテクチャを Capsule Network を用いた基本アーキテクチャとして提案する。
したがって,既存のGANの改良手法をCapsule GANに適用することができる。
関連論文リスト
- U-KAN Makes Strong Backbone for Medical Image Segmentation and Generation [48.40120035775506]
Kolmogorov-Arnold Networks (KAN)は、非線形学習可能なアクティベーション関数のスタックを通じてニューラルネットワーク学習を再構築する。
トークン化中間表現であるU-KAN上に専用kan層を統合することにより,確立したU-Netパイプラインを検証,修正,再設計する。
さらに、拡散モデルにおける代替U-Netノイズ予測器としてのU-KANの可能性を探り、タスク指向モデルアーキテクチャの生成にその適用性を実証した。
論文 参考訳(メタデータ) (2024-06-05T04:13:03Z) - Masked Capsule Autoencoders [5.363623643280699]
本稿では,事前学習を自己指導的に活用する最初のカプセルネットワークであるMasked Capsule Autoencoders (MCAE)を提案する。
提案するMCAEモデルでは,プリトレーニングステージとしてマスク画像モデリングを使用するようにカプセルネットワークを再構成することにより,この問題を緩和する。
我々は、CNNやViTと同様、Capsule Networksも自己教師付き事前トレーニングの恩恵を受けることができることを示した。
論文 参考訳(メタデータ) (2024-03-07T18:22:03Z) - Learning with Capsules: A Survey [73.31150426300198]
カプセルネットワークは、オブジェクト中心の表現を学習するための畳み込みニューラルネットワーク(CNN)に代わるアプローチとして提案された。
CNNとは異なり、カプセルネットワークは部分的に階層的な関係を明示的にモデル化するように設計されている。
論文 参考訳(メタデータ) (2022-06-06T15:05:36Z) - HP-Capsule: Unsupervised Face Part Discovery by Hierarchical Parsing
Capsule Network [76.92310948325847]
教師なしの顔部分発見のための階層型パーシングカプセルネットワーク(HP-Capsule Network)を提案する。
HP-Capsuleは、数字から人間の顔へのカプセルネットワークの適用を拡張し、ニューラルネットワークが人間の介入なしにオブジェクトを理解する方法を示す。
論文 参考訳(メタデータ) (2022-03-21T01:39:41Z) - Visual Explanations for Convolutional Neural Networks via Latent
Traversal of Generative Adversarial Networks [17.475341881835355]
本稿では、GAN(Generative Adversarial Networks)を利用して、畳み込みニューラルネットワーク(CNN)が学んだことを解釈する手法を提案する。
我々のGANフレームワークは、新型コロナウイルスの特徴から肺の構造を切り離す。このGANを用いて、GANの潜伏した空間で補間することにより、胸部X線写真中の一対の陰性肺からCOVID陽性肺への移行を可視化することができる。
論文 参考訳(メタデータ) (2021-10-29T23:26:09Z) - Parallel Capsule Networks for Classification of White Blood Cells [1.5749416770494706]
Capsule Networks(CapsNets)は、畳み込みニューラルネットワーク(CNN)の欠点を克服するために提案された機械学習アーキテクチャである。
我々は,特定のカプセルを分離するためにネットワークを分岐するという概念を活用する,新しいアーキテクチャであるCapsNetsを提案する。
論文 参考訳(メタデータ) (2021-08-05T14:30:44Z) - Guiding GANs: How to control non-conditional pre-trained GANs for
conditional image generation [69.10717733870575]
本稿では,汎用非条件GANを条件GANとして振る舞うための新しい方法を提案する。
提案手法は,非条件GANのジェネレータネットワークに供給される高次元ランダム入力を生成するために,エンコーダネットワークを混合するものである。
論文 参考訳(メタデータ) (2021-01-04T14:03:32Z) - iCaps: An Interpretable Classifier via Disentangled Capsule Networks [25.052072276266912]
画像分類のための解釈可能なカプセルネットワークiCapsを提案する。
iCapsは、パフォーマンスを低下させることなく、その背後に明確な根拠とともに、予測を提供する。
論文 参考訳(メタデータ) (2020-08-20T03:44:26Z) - $\Pi-$nets: Deep Polynomial Neural Networks [86.36557534288535]
$Pi$-Netsは、出力が入力の高次であるニューラルネットワークである。
我々は、$Pi$-Netsが標準のDCNNよりも優れた表現能力を持っていることを実証的に実証した。
近年のStyleGANのような生成モデルが,先行モデルに改良を加えた理由を解明する。
論文 参考訳(メタデータ) (2020-03-08T18:48:43Z) - Subspace Capsule Network [85.69796543499021]
SubSpace Capsule Network (SCN) はカプセルネットワークのアイデアを利用して、エンティティの外観や暗黙的に定義された特性のバリエーションをモデル化する。
SCNは、テスト期間中にCNNと比較して計算オーバーヘッドを発生させることなく、識別モデルと生成モデルの両方に適用することができる。
論文 参考訳(メタデータ) (2020-02-07T17:51:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。