論文の概要、ライセンス

# (参考訳) 自己スパース生成型逆ネットワーク [全文訳有]

Self Sparse Generative Adversarial Networks ( http://arxiv.org/abs/2101.10556v1 )

ライセンス: CC BY 4.0
Wenliang Qian, Yang Xu, Wangmeng Zuo, Hui Li(参考訳) GAN(Generative Adversarial Networks)は、敵対的トレーニングを通じてデータ分布を学習する監視されていない生成モデルである。 しかし,近年の実験では,高次元パラメータ空間の最適化と勾配ゼロ問題のため,ganの学習が困難であることが示された。 本研究では,パラメータ空間を小さくし,ゼロ勾配問題を軽減するSelf Sparse Generative Adversarial Network (Self-Sparse GAN)を提案する。 セルフスパースGANでは、スパース分解と特徴マップ再結合からなる自己適応スパース変換モジュール(SASTM)を設計し、マルチチャネルの特徴マップに適用してスパース特徴マップを得る。 Self-Sparse GANの重要なアイデアは、発電機内のすべてのデコンボリューション層に従ってSASTMを追加することです。 理論的には、SASTMはジェネレータの畳み込みカーネル重みの探索空間を削減できるだけでなく、バッチ正規化層における有意義な特徴を維持し、デ畳み込み層の重みを負にしないようにすることでゼロ勾配問題を緩和できる。 実験結果は,MNIST, Fashion-MNIST, CIFAR-10, STL-10, mini-ImageNet, CELEBA-HQ, LSUNの寝室におけるWGAN-GPと比較し,FIDの相対的な減少率は4.76%~21.84%であった。

Generative Adversarial Networks (GANs) are an unsupervised generative model that learns data distribution through adversarial training. However, recent experiments indicated that GANs are difficult to train due to the requirement of optimization in the high dimensional parameter space and the zero gradient problem. In this work, we propose a Self Sparse Generative Adversarial Network (Self-Sparse GAN) that reduces the parameter space and alleviates the zero gradient problem. In the Self-Sparse GAN, we design a Self-Adaptive Sparse Transform Module (SASTM) comprising the sparsity decomposition and feature-map recombination, which can be applied on multi-channel feature maps to obtain sparse feature maps. The key idea of Self-Sparse GAN is to add the SASTM following every deconvolution layer in the generator, which can adaptively reduce the parameter space by utilizing the sparsity in multi-channel feature maps. We theoretically prove that the SASTM can not only reduce the search space of the convolution kernel weight of the generator but also alleviate the zero gradient problem by maintaining meaningful features in the Batch Normalization layer and driving the weight of deconvolution layers away from being negative. The experimental results show that our method achieves the best FID scores for image generation compared with WGAN-GP on MNIST, Fashion-MNIST, CIFAR-10, STL-10, mini-ImageNet, CELEBA-HQ, and LSUN bedrooms, and the relative decrease of FID is 4.76% ~ 21.84%.
公開日: Tue, 26 Jan 2021 04:49:12 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
Self Sparse Generative Adversarial Networks 自己スパース生成型逆ネットワーク 0.72
1 Self Sparse Generative Adversarial Networks 1 自己スパース生成型逆ネットワーク 0.78
1Key Lab of Smart Prevention and Mitigation of Civil Engineering Disaster of the Ministry of Industry 1産業省土木災害のスマート予防と緩和のキーラボ。 0.48
Wenliang Qian1,2 Yang Xu1,2 Wangmeng Zuo3 Hui Li1,2,4 Wenliang Qian1,2 Yang Xu1,2 Wangmeng Zuo3 Hui Li1,2,4 0.50
and Information Technology 2School of Civil Engineering, Harbin Institute of Technology 情報技術は ハービン工業大学 土木工学科2校 0.61
3School of Computer Science and Technology, Harbin Institute of Technology ハービン工科大学 コンピュータサイエンス・テクノロジー学部 0.51
4AI Research Institute, Harbin Institute of Technology ハービン工科大学第4ai研究所 0.71
wl.qian@outlook.com {xyce, wmzuo, lihui}@hit.edu.cn wl.qian@outlook.com {xyce, wmzuo, lihui}@hit.edu.cn 0.73
Abstract: Generative Adversarial Networks (GANs) are an unsupervised generative model that learns data distribution through adversarial training. abstract: generative adversarial networks (gans) は教師なし生成モデルであり、敵のトレーニングを通じてデータ分布を学ぶ。 0.72
However, recent experiments indicated that GANs are difficult to train due to the requirement of optimization in the high dimensional parameter space and the zero gradient problem. しかし,近年の実験では,高次元パラメータ空間の最適化と勾配ゼロ問題のため,ganの学習が困難であることが示された。 0.79
In this work, we propose a Self Sparse Generative Adversarial Network (Self-Sparse GAN) that reduces the parameter space and alleviates the zero gradient problem. 本研究では,パラメータ空間を小さくし,ゼロ勾配問題を軽減するSelf Sparse Generative Adversarial Network (Self-Sparse GAN)を提案する。 0.84
In the Self-Sparse GAN, we design a Self-Adaptive Sparse Transform Module (SASTM) comprising the sparsity decomposition and feature-map recombination, which can be applied on multi-channel feature maps to obtain sparse feature maps. セルフスパースGANでは、スパース分解と特徴マップ再結合からなる自己適応スパース変換モジュール(SASTM)を設計し、マルチチャネルの特徴マップに適用してスパース特徴マップを得る。 0.71
The key idea of Self-Sparse GAN is to add the SASTM following every deconvolution layer in the generator, which can adaptively reduce the parameter space by utilizing the sparsity in multi-channel feature maps. Self-Sparse GANの重要なアイデアは、発電機内のすべてのデコンボリューション層に従ってSASTMを追加することです。
訳抜け防止モード: Self - Sparse GAN のキーとなるアイデアは、ジェネレータ内のすべてのデコンボリューション層に SASTM を追加することです。 マルチチャネル特徴写像の間隔を利用することで、パラメータ空間を適応的に削減できる。
0.65
We theoretically prove that the SASTM can not only reduce the search space of the convolution kernel weight of the generator but also alleviate the zero gradient problem by maintaining meaningful features in the Batch Normalization layer and driving the weight of deconvolution layers away from being negative. 理論的には、SASTMはジェネレータの畳み込みカーネル重みの探索空間を削減できるだけでなく、バッチ正規化層における有意義な特徴を維持し、デ畳み込み層の重みを負にしないようにすることでゼロ勾配問題を緩和できる。 0.74
The experimental results show that our method achieves the best FID scores for image generation compared with WGAN-GP on MNIST, Fashion-MNIST, CIFAR-10, STL-10, mini-ImageNet, CELEBA-HQ, and LSUN bedrooms, and the relative decrease of FID is 4.76% ~ 21.84%. 実験結果は,MNIST, Fashion-MNIST, CIFAR-10, STL-10, mini-ImageNet, CELEBA-HQ, LSUNの寝室におけるWGAN-GPと比較し,FIDの相対的な減少率は4.76%~21.84%であった。 0.79
英語(論文から抽出)日本語訳スコア
2 Qian et al 2 Qian et al 0.85
1 INTRODUCTION Generative adversarial networks (GANs) [1] are a kind of unsupervised generation model based on game theory, and widely used to learn complex real-world distributions based on deep convolutional layers [2] (e g image generation). 1 紹介 generative adversarial networks (gans) [1]はゲーム理論に基づいた教師なし生成モデルの一種であり、深層畳み込み層[2](画像生成など)に基づいて複雑な実世界分布を学ぶために広く使われている。 0.73
However, despite its success, training GANs is very unstable, and there may be problems such as gradient disappearance, divergence, and mode collapse [3, 4]. しかし、その成功にもかかわらず、gansのトレーニングは非常に不安定であり、勾配消失、発散、モード崩壊[3, 4]のような問題があるかもしれない。 0.68
The main reason is that training GANs needs to find a Nash equilibrium for a non-convex problem in a high dimensional continuous space [5]. 主な理由は、GANの訓練が高次元連続空間における非凸問題に対するナッシュ均衡を見つける必要があるからである [5]。 0.79
In addition, it is pointed out that the loss function used in the original GANs [1] causes the zero gradient problem when there is no overlap between the generated data distribution and the real data distribution [6]. また、生成したデータ分布と実データ分布 [6]とが重なり合っていない場合に、元のGANs[1]で使用される損失関数がゼロ勾配問題を引き起こすことが指摘されている。 0.83
function The stabilization of GAN training has been investigated by either modifying the network architecture [2, 6-8] or adopting an alternative objective the generator. 機能 GANトレーニングの安定化は、ネットワークアーキテクチャ [2, 6-8] を変更するか、ジェネレーターの代替目的を採用するかによって検討されている。 0.68
When the task is complex (including more texture details and with high resolution), we often increase the number of convolution kernels to enhance the capability of the generator. タスクが複雑な場合(さらにテクスチャの詳細と高解像度を含む)、発電機の能力を高めるために畳み込みカーネルの数を増やすことがよくあります。 0.76
Nevertheless, we do not exactly know how many convolution kernels are appropriate, which further increases the parameter space of the generator. それでも、どれだけの畳み込みカーネルが適切かは正確には分かっておらず、これはさらにジェネレータのパラメータ空間を増加させる。 0.56
Therefore, it is reasonable to speculate that parameter redundancy exists in the generator. したがって、ジェネレータ内にパラメータ冗長性が存在すると推測することは妥当である。 0.68
If the parameter space of the generator can be reduced, both the performance and training stability of GANs will be further improved. 発電機のパラメータスペースを減らすことができれば、GANのパフォーマンスとトレーニングの安定性がさらに向上します。 0.64
the high-dimensional parameter space of 高次元のパラメータ空間 0.78
these methods do not [9-12]. これらの方法は [9-12]. 0.84
However, reduce Motivated by the aforementioned challenges and the sparsity in deep convolution networks [13, 14], we propose a Self-Sparse Generative Adversarial Network (Self-Sparse GAN), with a Self-Adaptive Sparse Transform Module (SASTM) after each deconvolution layer. しかし、 減る 以上の課題と深層畳み込みネットワークの疎結合性に触発されて,各デコンボリューション層の後,自己適応スパース変換モジュール (SASTM) を備えた自己スパース生成共役ネットワーク (Self-Sparse GAN) を提案する。 0.71
The SASTM consisting of the sparsity decomposition and feature-map recombination is applied on multichannel feature maps of the deconvolution layer to obtain sparse feature maps. スパース性分解と特徴マップ再結合からなるSASTMは、デコンボリューション層のマルチチャネル特徴写像に適用され、スパース特徴写像を得る。 0.72
The channel sparsity coefficients and position sparsity sparsity decomposition. チャネル疎度係数と位置疎度分解 0.50
Then, the sparse multi-channel feature maps are acquired by a superposition of the channel sparsity and position sparsity, which can be obtained by the feature maps multiplying the corresponding sparsity coefficients. そして、スパース多チャンネル特徴写像は、チャネル間隔と位置間隔の重ね合わせにより取得され、対応するスパース係数を乗じて得られる特徴写像により得ることができる。 0.65
The corresponding sparsity coefficients will alleviate the zero gradient problem by maintaining meaningful features in the Batch Normalization (BN) layer and driving the weights of deconvolution layers away from being negative. 対応するスパーシティ係数は、バッチ正規化(BN)層の有意な特徴を維持し、デコンボリューション層の重みを負から遠ざけることによって、ゼログラデーション問題を緩和する。 0.66
Meanwhile, the sparse feature maps will free some of the convolution kernels, that is, the weights do not affect the model, thus reducing the parameter space. 一方、スパースな特徴マップは畳み込みカーネルの一部を解放する。つまり、重みはモデルに影響を与えず、パラメータ空間を減少させる。 0.64
two-headed two‐headed 0.57
coefficients coefficients 0.85
transform obtained network 変身 取得 ネットワーク 0.67
using a neural 利用 あ... 神経 0.51
vector in the vector で はあ? 0.64
the latent はあ? latent 0.60
are by to Our contributions. は で へ 我々の貢献だ 0.66
We propose a novel Self-Sparse GAN, in which the training of generator considers the adaptive sparsity in multi-channel feature maps. 本研究では,マルチチャネル特徴写像における適応性スパース性を考慮した自動スパースGANを提案する。 0.61
We use the SASTM to implement feature maps sparsity adaptively, and theoretically prove that our method not only reduces the search space of the convolution kernel weight but also alleviates the zero gradient problem. 我々は,SASTMを用いて特徴写像を適応的に実装し,提案手法が畳み込みカーネル重み付けの探索空間を減少させるだけでなく,ゼロ勾配問題を緩和するものであることを理論的に証明する。 0.73
We evaluate the performance of proposed Self-Sparse GAN using the MNIST [15], Fashion- MNIST [16], CIFAR-10 [17], STL-10 [18], mini-ImageNet [19], CELEBA-HQ [7], LSUN bedrooms [20] datasets. MNIST [15], Fashion-MNIST [16], CIFAR-10 [17], STL-10 [18], mini-ImageNet [19], CELEBA-HQ [7], LSUN bedrooms [20] データセットを用いて,提案した自己分離型GANの性能を評価する。 0.88
The experimental results show that our method achieves the best FID scores for image generation compared with WGAN-GP, and the relative decrease of FID is 4.76% ~ 21.84%. 実験の結果,WGAN-GPと比較して画像生成に最適なFIDスコアが得られ,FIDの相対減少率は4.76%~21.84%であった。 0.83
Generative adversarial network. 生成的敵ネットワーク。 0.75
GANs [1] can learn the data distribution through the game between the generator and discriminator, and have been widely used in image generation [21], video generation [22], image translation [23], and image inpainting [24]. GANs [1]は、ジェネレータと判別器の間のゲームを通じてデータ分布を学習することができ、画像生成[21]、ビデオ生成[22]、画像翻訳[23]、および画像インペインティング[24]で広く使用されています。 0.72
2 Related Work Optimization and training frameworks. 2 関連作業 最適化とトレーニングフレームワーク。 0.79
With the development of GANs, more and more researchers are committed to settling the training barriers of gradient disappearance, divergence and mode collapse. GANの開発に伴い、より多くの研究者が勾配の消失、発散、モード崩壊の訓練障壁を固めることにコミットしている。 0.67
In the work [5], noise is added to the generated data and real data to increase the support of two distributions and alleviate the problem of gradient disappearance. 作業[5]では、生成されたデータと実データにノイズを加えて、2つの分布のサポートを増やし、勾配消失の問題を軽減する。 0.81
In the work [10], the least squares loss function is adopted to stabilize the training of the discriminator. 作業[10]では、判別器の訓練を安定させるために最小二乗損失関数を採用する。 0.73
WGAN [9] uses the Earth Mover’s Distance (EMD) instead of the Jensen-Shannon divergence in the original GAN, which requires the discriminator to satisfy the Lipschitz constraint and can be achieved by weight clipping. WGAN [9]は、元のGANのJensen-Shannon発散の代わりにEarth Mover’s Distance(EMD)を使用します。
訳抜け防止モード: wgan [9 ]は、元のganのjensen - shannon divergenceの代わりに、地球移動機の距離(emd)を使用する。 これは、判別器がリプシッツ制約を満たすことを必要とし、重量クリッピングによって達成される。
0.57
Because weight clipping will push weights towards the extremes of the Lipschitz constraint. 重量クリッピングはリプシッツの制約の極端に向かって重量をプッシュするので。 0.61
Another way to enforce the Lipschitz constraint is proposed in [12] by spectral normalization. Lipschitz制約を強制する別の方法は、スペクトル正規化によって[12]で提案される。 0.69
A series of adaptive methods with the transformation of the latent vector to get additional information are also widely used in GANs. 付加情報を得るために潜在ベクトルを変換した一連の適応的手法も、GANで広く使われている。
訳抜け防止モード: 潜在ベクトルの変換を伴う一連の適応的手法 追加情報を得る またGANsで広く利用されています。
0.81
Work [25] uses an adaptive affine transformation to utilize spatial feedback from the discriminator to improve the performance of GANs. 作業[25]は適応アフィン変換を用いて、判別器からの空間フィードバックを利用してganの性能を向上させる。
訳抜け防止モード: 適応アフィン変換を用いた作業 [25 ] 判別器からの空間フィードバックを利用してGANの性能を向上させる。
0.80
Work [26] uses a nonlinear network to transform the latent space to obtain the intermediate latent space, which controls the generator 作業 [26] は、非線形ネットワークを使用して潜時空間を変換し、中間潜時空間を得る。 0.65
the discriminator satisfy the gradient penalty 差別者が満足する グラデーションペナルティという刑罰 0.50
range, WGAN-GP range, WGAN-GP 0.78
the clipping [11] uses クリップは [11]使用 0.70
to make to make ~ 0.82
英語(論文から抽出)日本語訳スコア
Self Sparse Generative Adversarial Networks 自己スパース生成型逆ネットワーク 0.72
3 through adaptive instance normalization (AdaIN) in each convolutional layer. 3 各畳み込み層の適応インスタンス正規化(AdaIN)を通じて。 0.78
In the work [27], a nonlinear network is used to transform the latent vector to obtain the affine transformation parameters of the BN layer to stabilize the GAN training. 作業[27]では、非線形ネットワークを使用して潜在ベクトルを変換し、BN層のアフィン変換パラメータを取得し、GANトレーニングを安定化させる。
訳抜け防止モード: 作業[27]では、遅延ベクトルを変換するために非線形ネットワークが使用される GANトレーニングを安定させるためにBN層のアフィン変換パラメータを得る。
0.85
SPGAN [28] creates a sparse representation vector for each image patch then synthesizes the entire image by multiplying generated sparse representations to a pre-trained dictionary and assembling the resulting patches. SPGAN [28]は、各画像パッチのスパース表現ベクトルを作成し、生成されたスパース表現を事前に訓練された辞書に乗じて画像全体を合成し、その結果のパッチを組み立てます。 0.60
Sparsity in Convolutional Neural Networks. 畳み込みニューラルネットワークにおけるスパース性 0.68
Deep convolution networks have made great progress in a wide range of fields, especially for image classification [29]. 深い畳み込みネットワークは、特に画像分類[29]において、幅広い分野で大きな進歩を遂げています。 0.81
However, there is a strong correlation between the performance of the network and the network size [30], which also leads to parameter redundancy in deep convolutional networks. しかし,ネットワーク性能とネットワークサイズ [30] との間には強い相関関係があり,深層畳み込みネットワークにおけるパラメータの冗長性がもたらされる。 0.87
The Sparse Convolutional Neural Networks [13, 14, 31] uses sparse decomposition of the convolution kernels to reduce more than 90% parameters, while the drop of accuracy is less than 1% on the ILSVRC2012 dataset. Sparse Convolutional Neural Networks [13, 14, 31]は、ILSVRC2012データセットの精度低下が1%未満である間、90%以上のパラメータを減らすために、畳み込みカーネルのスパース分解を使用します。 0.82
Work [13, 14, 31] proposes 𝐿0 norm regularization for neural networks to encourage weights to become exactly zero to speed up training and improve generalization. ワーク[13, 14, 31]は、ニューラルネットワークのL0標準正規化を提案し、トレーニングをスピードアップし、一般化を改善するために重みを正確にゼロにする。 0.66
3 Self-Sparse GAN Motivated by the aforementioned challenges, we aim to design the generator with a mechanism, which can use fewer feature maps to learn useful representations. 3 自己分離ガン 上記の課題に触発され、我々は、より少ない特徴マップで有用な表現を学習できるメカニズムでジェネレータを設計することを目指している。 0.63
Inspired by DANet [32], we first design a two-headed neural network to transform the latent vector to obtain the channel sparsity coefficient and position sparsity coefficient of the multi-channel feature maps. danet [32] に触発されて,まず潜在ベクトルを変換してマルチチャネル特徴マップのチャネルスパーシティ係数と位置スパーシティ係数を得る2つのヘッドニューラルネットワークを設計した。 0.75
Second, we multiply the multi-channel feature maps by the channel sparse coefficient and position sparse coefficient, respectively. 第2に,チャネルスパース係数と位置スパース係数でマルチチャネル特徴写像をそれぞれ乗算する。 0.64
Then, we add the results to get the output of SASTM. 次に、SASTMの出力を得るために結果を追加します。 0.80
The proposed Self-Sparse GAN adds a SASTM behind each deconvolution layer of the generator. 提案されたSelf-Sparse GANは、ジェネレータの各デコンボリューション層の後ろにSASTMを追加する。 0.51
Self-Sparse GAN only 自己スパースganのみ 0.66
modifies the architecture of the generator, and its conceptual diagram is shown in Figure 1. ジェネレータのアーキテクチャを変更し、その概念図を図1に示します。 0.64
Figure 1: The concept diagram of the modified generator in the Self-Sparse GAN. 図1:自己分離GANにおける修正ジェネレータの概念図。 0.66
Deconvolution, BN, ReLU, and Tanh represent the deconvolutional layer, the Batch Normalization layer, rectified linear activation function, and tanh activation function, respectively. Deconvolution, BN, ReLU, Tanh はそれぞれ Deconvolutional Layer, Batch Normalization Layer, Rectified linear activation function, tanh activation function を表している。 0.72
We define the process 定義します プロセスは 0.74
the planar size of feature map from 𝐻 × 𝑊 to 2𝐻 × 2𝑊 as a generative stage. 生成段階として H × W から 2H × 2W までの特徴写像の平面サイズ。 0.88
For example, when the resolution of the generated image is 128 × 128 , the hierarchical processes of feature map generation 𝐳 → 4 × 4 → 8 × 8 → 16 × 16 → 32 × 32 → 64 × 64 → 128 × 128 are defined as different stages in the generator. 例えば、生成した画像の解像度が 128 × 128 であるとき、特徴写像生成 z → 4 × 4 → 8 × 8 → 16 × 16 → 32 × 32 → 64 × 64 → 128 × 128 の階層過程は発電機の異なる段階として定義される。 0.85
Stage 𝑡 = 3 refers to 8 × 8 → 16 × 16, where 𝑡 ∈ {1,2,3,4,5,6} and 𝑇 = 6 denotes the total number of stages. ステージ t = 3 は 8 × 8 → 16 × 16 であり、t ∈ {1,2,3,4,5,6} と T = 6 はステージの総数を表す。 0.83
transforming transforming~ 0.73
3.1. SASTM: Self-Adaptive Sparse Transform Module 3.1. SASTM: 自己適応スパース変換モジュール 0.78
SASTM includes the sparsity decomposition and feature-map recombination. SASTMは空間分解と特徴マップの組換えを含む。 0.66
The sparsity decomposition consists of Channel Sparsity Module (CSM) and Position Sparsity Module (PSM) to obtain the channel sparsity coefficient and position sparsity coefficient. チャネル空間分解はチャネル空間分解モジュール (CSM) と位置空間分解モジュール (PSM) から構成され、チャネル空間分解係数と位置空間分解係数を得る。 0.62
英語(論文から抽出)日本語訳スコア
4 Qian et al 4 Qian et al 0.85
Figure 2: The concept diagram of the Self-Adaptive Sparse Transform Module. 図2:自己適応スパース変換モジュールの概念図。 0.68
As illustrated in Figure 2, a two-headed neural network will be employed to obtain the corresponding sparsity coefficients. 図2に示すように、対応するスパーシティ係数を得るために2ヘッドニューラルネットワークが使用される。 0.73
In 𝑡 and 𝑔2 𝑡 , the two-headed neural network, the underlying shared layers MLP are defined as 𝑓𝑡, and the exclusive networks are 𝑔1 respectively. t と g2 t では、両頭神経ネットワーク、下層の共有層 MLP を ft と定義し、それぞれ排他的ネットワークを g1 とする。 0.73
𝛼𝑖 ≥ 0 can be obtained as follows: 𝛼𝑖 ≥ 0 は次のように得られる。 0.82
𝑡 ≥ 0 and 𝛽𝑗,𝑘 𝑡 𝑡 ≥ 0 and 𝛽𝑗,𝑘 𝑡 0.85
𝜶𝒕 = 𝑅𝑒𝐿𝑈(𝑔1 𝜶𝒕 = 𝑅𝑒𝐿𝑈(𝑔1 0.99
𝑡(𝑓𝑡(𝒛))) 𝜷𝒕 = 𝑅𝑒𝐿𝑈(𝑔2 𝑡(𝑓𝑡(𝒛))) 𝜷𝒕 = 𝑅𝑒𝐿𝑈(𝑔2 0.92
𝑡(𝑓𝑡(𝒛))) (1) 𝑡(𝑓𝑡(𝒛))) (1) 0.85
(2) 𝑡 where Eq (1) and Eq (2) represent CSM and PSM, respectively. (2) t において eq(1) と eq (2) はそれぞれcsm と psm を表す。 0.83
𝛼𝑖 𝑡 = 0 and 𝛽𝑗,𝑘 𝑡 sparsity and position sparsity, respectively. αi t = 0 および βj,k t の間隔および位置の間隔。 0.68
When 𝛼𝑖 become useless, respectively. αi がそれぞれ役に立たないとき。 0.61
𝑡 and 𝛽𝑗,𝑘 ∈ 𝑅𝐶𝑡 are coefficients of the channel = 0, the corresponding channel and spatial location will tとβj,k ∈ RCt は、チャネル = 0 の係数であり、対応するチャネルと空間的位置は、 0.87
∈ 𝑅𝐻𝑡×𝑊𝑡 Suppose ∈ 𝑅𝐻𝑡×𝑊𝑡 仮定 0.65
that the output after the deconvolution あれ 出力は deconvolution (複数形 deconvolutions) 0.52
layer 𝑡 is ℎ𝑖,𝑗,𝑘 層 t は hi,j,k 0.79
∈ 𝑅𝐶𝑡×𝐻𝑡×𝑊𝑡 ∈ 𝑅𝐶𝑡×𝐻𝑡×𝑊𝑡 0.50
, where 𝐶𝑡, 𝐻𝑡 and𝑊t represent Ct, Ht, Wt が表す。 0.60
the number of the number of... 0.49
channels, height and width of the feature maps, respectively. 特徴マップのチャネル、高さ、幅はそれぞれ異なる。 0.68
The feature-map recombination will be calculated as follow: 機能マップの組換えは次のように計算されます。 0.61
𝑡 where 𝑥𝑖,𝑗,𝑘 sparsity. t、xi、j、k、スパーシティ。 0.51
𝑡 𝑥𝑖,𝑗,𝑘 = 𝛼𝑖 𝑡 𝑥𝑖,𝑗,𝑘 = 𝛼𝑖 0.85
𝑡 𝑡 × ℎ𝑖,𝑗,𝑘 𝑡 𝑡 × ℎ𝑖,𝑗,𝑘 0.94
𝑡 + 𝛽𝑗,𝑘 𝑡 × ℎ𝑖,𝑗,𝑘 𝑡 + 𝛽𝑗,𝑘 𝑡 × ℎ𝑖,𝑗,𝑘 0.90
(3) ∈ 𝑅𝐶𝑡×𝐻𝑡×𝑊𝑡 (3) ∈ 𝑅𝐶𝑡×𝐻𝑡×𝑊𝑡 0.68
is sparse feature maps. スパースな特徴マップです 0.61
Therefore, SASTM そのため、SASTM 0.90
is the superposition of channel sparsity and position は チャネルスパーシティと位置の重ね合わせ 0.68
The sparse rate of position sparsity in the i-th channel is defined as follows: iチャネルの位置のスパース率を次のように定義します。 0.66
𝑡 = 𝜉𝑖 𝑡 𝑡 , 𝑥𝑖,𝑗,𝑘 𝑐𝑟𝑎𝑑({𝑥𝑖,𝑗,𝑘 𝐻𝑡𝑊𝑡 𝑡 = 𝜉𝑖 𝑡 𝑡 , 𝑥𝑖,𝑗,𝑘 𝑐𝑟𝑎𝑑({𝑥𝑖,𝑗,𝑘 𝐻𝑡𝑊𝑡 0.85
= 0}) where “crad” is used to signify number of elements in the set. = 0}) ここで “crad” は集合内の要素の数を表すために使われます。 0.78
If 𝜉𝑖 The sparse rate of the channel sparsity is defined as follows: チャネルのスパーシティのスパースレートは、次のように定義されます。 0.58
𝑡 ≥ 2/3 , the i-th channel is regarded to be sparse. t ≥ 2/3 , i-th チャネルはスパースであると考えられる。 0.74
𝜁 = 𝑡 ≥ 2/3}) 𝑡, 𝜉𝑖 𝑐𝑟𝑎𝑑({𝜉𝑖 𝐶𝑡 𝜁 = 𝑡 ≥ 2/3}) 𝑡, 𝜉𝑖 𝑐𝑟𝑎𝑑({𝜉𝑖 𝐶𝑡 0.91
(4) (5) 𝑡 In the BP (Back Propagation) process, the derivatives of loss function with respect to ℎ𝑖,𝑗,𝑘 follows: (4) (5) t BP (Back Propagation) プロセスでは、hi,j,k に関する損失関数の導関数は次のようになります。 0.82
, 𝑡 and 𝛽𝑗,𝑘 𝑡 𝛼𝑖 , t と βj,k t αi 0.89
are calculated as 計算すると 0.57
英語(論文から抽出)日本語訳スコア
Self Sparse Generative Adversarial Networks 自己スパース生成型逆ネットワーク 0.72
∇ℎ𝑖,𝑗,𝑘 𝑡 = ∇𝑥𝑖,𝑗,𝑘 𝑡 ∇ℎ𝑖,𝑗,𝑘 𝑡 = ∇𝑥𝑖,𝑗,𝑘 𝑡 0.96
( ) = ∇𝑥𝑖,𝑗,𝑘 𝑡 ( ) = ∇𝑥𝑖,𝑗,𝑘 𝑡 0.90
𝑡 + 𝛽𝑗,𝑘 𝑡 (𝛼𝑖 𝑡 + 𝛽𝑗,𝑘 𝑡 (𝛼𝑖 0.85
) 𝑡 𝜕𝑥𝑖,𝑗,𝑘 𝑡 𝜕ℎ𝑖,𝑗,𝑘 𝑡 𝜕𝑥𝑖,𝑗,𝑘 ( 𝑡 𝜕𝛼𝑖 𝑡 𝜕𝑥𝑖,𝑗,𝑘 𝑡 𝜕𝛽𝑗,𝑘 ) 𝑡 𝜕𝑥𝑖,𝑗,𝑘 𝑡 𝜕ℎ𝑖,𝑗,𝑘 𝑡 𝜕𝑥𝑖,𝑗,𝑘 ( 𝑡 𝜕𝛼𝑖 𝑡 𝜕𝑥𝑖,𝑗,𝑘 𝑡 𝜕𝛽𝑗,𝑘 0.88
( ∇𝛼𝑖 𝑡= ∇𝑥𝑖,𝑗,𝑘 𝑡 ( ∇𝛼𝑖 𝑡= ∇𝑥𝑖,𝑗,𝑘 𝑡 0.87
) = ∇𝑥𝑖,𝑗,𝑘 𝑡 ) = ∇𝑥𝑖,𝑗,𝑘 𝑡 0.94
𝑡 ℎ𝑖,𝑗,𝑘 𝛻𝛽𝑗,𝑘 𝑡 𝑡 ℎ𝑖,𝑗,𝑘 𝛻𝛽𝑗,𝑘 𝑡 0.91
= ∇𝑥𝑖,𝑗,𝑘 𝑡 = ∇𝑥𝑖,𝑗,𝑘 𝑡 0.96
) = ∇𝑥𝑖,𝑗,𝑘 𝑡 ) = ∇𝑥𝑖,𝑗,𝑘 𝑡 0.94
𝑡 ℎ𝑖,𝑗,𝑘 5 𝑡 ℎ𝑖,𝑗,𝑘 5 0.91
(6) 3.2. Mechanism Analysis of the SASTM (6) 3.2. SASTMのメカニズム解析 0.75
To analyze the role of the SASTM, we select the t-th generation stage as shown in Figure 3. SASTMの役割を分析するために、図3に示すようにt-thジェネレーションステージを選択します。 0.76
Figure 3: The concept diagram of the t-th generation stage. 図3:第t世代のステージの概念図。 0.66
𝑦𝑖,𝑗,𝑘 𝑡 𝑡−1, ℎ𝑖,𝑗,𝑘 𝑦𝑖,𝑗,𝑘 𝑡 𝑡−1, ℎ𝑖,𝑗,𝑘 0.87
𝑡 , 𝑥𝑖,𝑗,𝑘 𝑡 , 𝑥𝑖,𝑗,𝑘 0.85
𝑡 , 𝑠𝑖,𝑗,𝑘 𝑡 , 𝑠𝑖,𝑗,𝑘 0.85
𝑡 and 𝑦𝑖,𝑗,𝑘 t と yi,j,k 0.84
represent the output feature maps of the の出力機能マップを表します。 0.67
previous ReLU, deconvolution, SASTM, BN and ReLU layers, respectively, and their dimensions are 𝐶𝑡 × 𝐻𝑡 × 𝑊𝑡. 前のReLU、脱コンボリューション、SASTM、BNおよびReLU層はそれぞれ、その寸法はCt × Ht × Wtである。 0.81
For the convenience of discussion, we assume that dimensions of the input and output feature maps of the deconvolution layer remain same (𝐶𝑡 × 𝐻𝑡 × 𝑊𝑡). 議論の便宜のために、デコンボリューション層の入出力特徴写像の次元は同一である(Ct × Ht × Wt)と仮定する。 0.56
Meanwhile, the size of the deconvolution kernel is 1 × 1. 一方、デコンボリューションカーネルのサイズは 1 × 1 である。 0.70
The feedforward process is expressed as follows: フィードフォワードのプロセスは次のように表現される。 0.61
𝑡 𝑥𝑖,𝑗,𝑘 = (𝛼𝑖 𝑡 𝑥𝑖,𝑗,𝑘 = (𝛼𝑖 0.85
𝑡−1 𝑦𝑚,𝑗,𝑘 𝑡−1 𝑦𝑚,𝑗,𝑘 0.92
+ 𝛽𝑗𝑘 𝑡 ∑ 𝑣𝑚,𝑖 𝑡 𝑚 𝑡 𝑦𝑖,𝑗,𝑘 + 𝛽𝑗𝑘 𝑡 ∑ 𝑣𝑚,𝑖 𝑡 𝑚 𝑡 𝑦𝑖,𝑗,𝑘 0.85
𝑡 = max {𝜑𝑏𝑛 t = max {φbn 0.99
𝑡 (𝑥𝑖,𝑗,𝑘 𝑡 ∑ 𝑣𝑚,𝑖 𝑡 𝑚 ),0} 𝑡 (𝑥𝑖,𝑗,𝑘 𝑡 ∑ 𝑣𝑚,𝑖 𝑡 𝑚 ),0} 0.85
𝑡−1 𝑦𝑚,𝑗,𝑘 𝑡−1 𝑦𝑚,𝑗,𝑘 0.92
) (7) 𝑡−1 denotes the corresponding deconvolution weight, 𝑦𝑚,𝑗,𝑘 ) (7) t−1 は対応する解畳重量 ym,j,k を表す 0.82
𝑡 where 𝑣𝑚,𝑖 𝑡 𝜑𝑏𝑛 denotes the BN operation. ここで vm,i t φbn は BN 演算を表す。 0.77
𝑡 In the BP process, the derivatives of loss function with respect to 𝑣𝑚,𝑖 t BP過程において、vm,i に関する損失関数の誘導体 0.76
denotes the element of position 𝑗, 𝑘 in the m-th channel, and m番目のチャネルにおける位置 j, k の要素を示し、 0.80
𝑡 and 𝛽𝑗,𝑘 𝑡 , 𝛼𝑖 𝑡 and 𝛽𝑗,𝑘 𝑡 , 𝛼𝑖 0.85
are calculated as follows: 計算は以下のとおりである。 0.56
𝛻𝑣𝑚,𝑖 𝑡 = { 𝛻𝑣𝑚,𝑖 𝑡 = { 0.85
𝑡 + 𝛽𝑗𝑘 𝑡 (𝛼𝑖 𝑡 + 𝛽𝑗𝑘 𝑡 (𝛼𝑖 0.85
𝑡 , 𝜑𝑏𝑛 𝛻𝑦𝑖,𝑗,𝑘 𝑡 𝑡 0 , 𝜑𝑏𝑛 𝑡 , 𝜑𝑏𝑛 𝛻𝑦𝑖,𝑗,𝑘 𝑡 𝑡 0 , 𝜑𝑏𝑛 0.85
𝑡−1 )𝑦𝑚,𝑗,𝑘 𝑡−1 )𝑦𝑚,𝑗,𝑘 0.94
𝑡 (𝑥𝑖,𝑗,𝑘 𝑡 (𝑥𝑖,𝑗,𝑘 𝑡 (𝑥𝑖,𝑗,𝑘 𝑡 (𝑥𝑖,𝑗,𝑘 0.85
) > 0 ) ≤ 0 ) > 0 ) ≤ 0 0.85
𝛻𝛼𝑖 𝑡 = { 𝑡 ∑ 𝑣𝑚,𝑖 𝑚 𝛻𝛼𝑖 𝑡 = { 𝑡 ∑ 𝑣𝑚,𝑖 𝑚 0.85
𝑡 , 𝜑𝑏𝑛 𝛻𝑦𝑖,𝑗,𝑘 𝑡 𝑡 0 , 𝜑𝑏𝑛 𝑡 , 𝜑𝑏𝑛 𝛻𝑦𝑖,𝑗,𝑘 𝑡 𝑡 0 , 𝜑𝑏𝑛 0.85
𝑡−1 𝑦𝑚,𝑗,𝑘 𝑡−1 𝑦𝑚,𝑗,𝑘 0.92
𝑡 (𝑥𝑖,𝑗,𝑘 𝑡 (𝑥𝑖,𝑗,𝑘 𝑡 (𝑥𝑖,𝑗,𝑘 𝑡 (𝑥𝑖,𝑗,𝑘 0.85
) > 0 ) ≤ 0 ) > 0 ) ≤ 0 0.85
(8) (9) (8) (9) 0.85
英語(論文から抽出)日本語訳スコア
6 Qian et al 6 Qian et al 0.85
𝛻𝛽𝑗𝑘 𝑡 = { 𝛻𝛽𝑗𝑘 𝑡 = { 0.85
𝑡and 𝛽𝑗,𝑘 𝑡 tand βj,k t 0.99
Intuitively, whether 𝛼𝑖 Therefore, we make the following assumption: Hypothesis 1: When 𝛼𝑖 unchanged. 直観的には、αi が成り立つかどうかを仮定する: 仮説 1: αi が変化しないとき。 0.62
𝑡and 𝛽𝑗,𝑘 𝑡 tand βj,k t 0.99
are equal 𝑡 ∑ 𝑣𝑚,𝑖 𝑚 平等です 𝑡 ∑ 𝑣𝑚,𝑖 𝑚 0.75
𝑡 𝛻𝑦𝑖,𝑗,𝑘 , 𝜑𝑏𝑛 𝑡 𝑡 0 , 𝜑𝑏𝑛 𝑡 𝛻𝑦𝑖,𝑗,𝑘 , 𝜑𝑏𝑛 𝑡 𝑡 0 , 𝜑𝑏𝑛 0.85
𝑡−1 𝑦𝑚,𝑗,𝑘 𝑡−1 𝑦𝑚,𝑗,𝑘 0.92
𝑡 (𝑥𝑖,𝑗,𝑘 𝑡 (𝑥𝑖,𝑗,𝑘 𝑡 (𝑥𝑖,𝑗,𝑘 𝑡 (𝑥𝑖,𝑗,𝑘 0.85
) > 0 ) ≤ 0 ) > 0 ) ≤ 0 0.85
to zero or greater zero (複数形 zeros) 0.47
than zero will remain unchanged after certain ゼロ以上は 変化しないでしょう 0.64
training steps. トレーニングステップ。 0.65
(10) have represented the significance of channel and position sparsity, their signs will remain (10) チャネルと位置のスパーシティの重要性を表しており、その兆候は残ります 0.70
𝑡 = 0, and ∀ 𝑗 ∈ {1, … , 𝐻𝑡}, ∀ 𝑘 ∈ {1, … 𝑊𝑡}, 𝑡 = 0, and ∀ 𝑗 ∈ {1, … , 𝐻𝑡}, ∀ 𝑘 ∈ {1, … 𝑊𝑡}, 0.79
is 𝐶𝑡 × 𝐶𝑡. Ct × Ct である。 0.88
Find ∀ 𝑖 ∈ 𝐴 ⊂ {1, … , 𝐶𝑡}, where 𝛼𝑖 𝛻𝑣𝑚,𝑖1 𝑡 Find ∀ 𝑖 ∈ 𝐴 ⊂ {1, … , 𝐶𝑡}, where 𝛼𝑖 𝛻𝑣𝑚,𝑖1 𝑡 0.85
In this section, we prove that the proposed SASTM plays the following three roles: 1) reducing the search space of convolution parameters in the generator; In Eq (7), the dimension of the deconvolution 𝑡 kernel weight 𝑣𝑚,𝑖 = 𝑡 0, then 𝑥𝑖1,𝑗,𝑘 = 0, = 0 for all times from hypothesis 1, which indicates that the i-th channel will no longer work in both feedforward and backward processes in training. このセクションでは、提案されたSASTMが、ジェネレータ内の畳み込みパラメータの探索空間を減らすこと、Eq(7)では、脱畳み込みtカーネル重量vm,i = t 0、それから xi1,j,k = 0, = 0 の3つの役割を担っていることを証明します。
訳抜け防止モード: このセクションでは、提案されたSASTMが次の3つの役割を演じていることを証明します。1 ) 発電機内の畳み込みパラメータの検索スペースを減らす; Eq (7 )。 デコンボリューションt核重量vm,i = t 0の次元 すると xi1,j,k = 0, = 0 となる。 i-thチャンネルは、トレーニングのフィードフォワードプロセスとバックワードプロセスの両方でもはや動作しないことを示します。
0.76
Consequently, the dimensions of the valid convolutional kernels are (𝐶𝑡 − |𝐴|) × 𝐶𝑡, thus reducing the search space of the convolutional parameters in the generator. したがって、有効な畳み込み核の次元は (Ct − |A|) × Ct であり、これによって発電機内の畳み込みパラメータの探索空間が減少する。 0.73
2) maintaining meaningful features in the BN layer to alleviate the zero gradient problem; For the convenience of discussion, we do not consider the affine transformation in the BN layer. 2)ゼロ勾配問題を緩和するためにBN層に有意義な特徴を保ちながら,議論の便宜のために,BN層におけるアフィン変換を考慮しない。 0.84
At the same time, because dividing by the standard deviation in the BN layer will not change the sign, we also ignore the standard deviation in the BN layer for the remainder of the 𝑡 discussion. 同時に、BN層の標準偏差によって分割しても符号は変わらないので、残りのt議論ではBN層の標準偏差も無視します。 0.61
𝑥𝑖,𝑗,𝑘 < 0} passes through the BN layer, a part of its value will become greater than zero in feedforward and thus mitigate the zero gradient problem in 𝑡 backward. xi,j,k < 0} は BN 層を通過し、その値の一部がフィードフォワードで 0 よりも大きくなり、t の後方へのゼロ勾配問題を緩和する。 0.70
Here, we ignore the part still less than zero. ここでは、まだ 0 未満の部分を無視します。 0.72
Therefore, in the following discussion, we assume 𝑥𝑖,𝑗,𝑘 ≥ 0, and denote 𝑡 ∈ {1,2, … , 𝐷} , 𝑒 ∈ {1,2, … 𝐸}. したがって、次の議論では xi,j,k ≥ 0 と仮定し、t ∈ {1,2, ... , D} , e ∈ {1,2, ... E} と表す。 0.87
the positive values as 𝑥̃𝑖,𝑑,𝑒 According to the definition of sparse rate of position sparsity, 𝐷𝐸 = (1 − 𝜉𝑖 layer can be expressed as 位置スパーシティのスパース率の定義に従って、x,d,e の正の値は、de = (1 − )i 層として表すことができる。 0.66
𝑡)𝐻𝑡𝑊𝑡. Therefore, the computation of the BN 𝑡)𝐻𝑡𝑊𝑡. したがって、BNの計算。 0.77
𝑡 can be divided into two parts {𝑥𝑖,𝑗,𝑘 t はxi,j,k の2つの部分に分けられる 0.85
𝑡 ≥ 0}. When {𝑥𝑖,𝑗,𝑘 𝑡 ≥ 0}. if {xi,j,k 0.79
𝑡 < 0} and {𝑥𝑖,𝑗,𝑘 t < 0} と {xi,j,k, 0.88
𝑡 where 𝛽𝑗𝑘 𝑡 = {𝑥𝑖,𝑑,𝑒 t, βjk 𝑡 = {𝑥𝑖,𝑑,𝑒 0.79
𝑡 |𝑥𝑖,𝑗,𝑘 𝑡 |𝑥𝑖,𝑗,𝑘 𝑡 |𝑥𝑖,𝑗,𝑘 𝑡 |𝑥𝑖,𝑗,𝑘 0.97
𝑡 |𝑥𝑖,𝑗,𝑘 > 0}, 𝑡 |𝑥𝑖,𝑗,𝑘 > 0}, 0.83
𝑑 , 𝑡 𝑥𝑖,𝑑,𝑒 𝑑 , 𝑡 𝑥𝑖,𝑑,𝑒 0.85
𝑡 𝑠𝑖,𝑗,𝑘 𝑡 = 𝑥𝑖,𝑗,𝑘 𝑡 𝑠𝑖,𝑗,𝑘 𝑡 = 𝑥𝑖,𝑗,𝑘 0.85
− 1 𝑡 𝐻𝑡𝑊𝑡 ∑𝑥𝑖,𝑗,𝑘 − 1 𝑡 𝐻𝑡𝑊𝑡 ∑𝑥𝑖,𝑗,𝑘 0.90
𝑡 = 𝑥𝑖,𝑗,𝑘 𝑡 = 𝑥𝑖,𝑗,𝑘 0.85
𝑡) − (1 − 𝜉𝑖 𝑡) − (1 − 𝜉𝑖 0.85
1 𝐷𝐸 𝑡 ∑𝑥̃𝑖,𝑑,𝑒 1 𝐷𝐸 𝑡 ∑𝑥̃𝑖,𝑑,𝑒 0.91
𝑡 = 𝑥𝑖,𝑗,𝑘 𝑡 = 𝑥𝑖,𝑗,𝑘 0.85
𝑡)𝜇̃𝑖 𝑡 − (1 − 𝜉𝑖 𝑡)𝜇̃𝑖 𝑡 − (1 − 𝜉𝑖 0.85
(11) where 𝜇̃𝑖 (11) ここで μ は 0.66
𝑡 𝑡 = ∑𝑥̃𝑖,𝑑,𝑒 𝑡 𝑡 = ∑𝑥̃𝑖,𝑑,𝑒 0.94
𝑡 /𝐷𝐸 > 0 and 𝑠𝑖,𝑗,𝑘 𝑡 The conditional probability of {𝑠𝑖,𝑗,𝑘 𝑡 in 𝑥𝑖,𝑗,𝑘 t /DE > 0 および si,j,k t xi,j,k t における{si,j,k t の条件確率 0.83
𝑡 > 0} is 𝑃(𝑥̃𝑖,𝑑,𝑒 𝑡 , the aforementioned probability is approximated as 𝑃(𝑥̃𝑖,𝑑,𝑒 t > 0} は p(x,d,e t) であり、上記の確率は p(x,d,e) と近似する。 0.88
𝑡 is the value of 𝑥𝑖,𝑗,𝑘 𝑡 < 0|𝑥𝑖,𝑗,𝑘 t は xi,j,k t < 0|xi,j,k の値である 0.95
after passing through BN. 𝑡 < 0). BNを通過した後。 𝑡 < 0). 0.80
− 𝜇̃𝑖 In addition, considering 𝑡)𝜇̃𝑖 𝑡 < 0), where − (1 − 𝜉𝑖 ここで − (1 − )i である(t を考えると、- μ は t < 0 である)。 0.68
the position sparsity position (複数形 positions) 0.39
𝑡 𝑃(𝑥̃𝑖,𝑑,𝑒 𝑡 𝑃(𝑥̃𝑖,𝑑,𝑒 0.85
− 𝜇̃𝑖 𝑡 𝑡 < 0) = 𝑃(𝑥̃𝑖,𝑑,𝑒 − 𝜇̃𝑖 𝑡 𝑡 < 0) = 𝑃(𝑥̃𝑖,𝑑,𝑒 0.85
𝑡)𝜇̃𝑖 𝑡 < 𝜉𝑖𝜇̃𝑖 − (1 − 𝜉𝑖 𝑡)𝜇̃𝑖 𝑡 < 𝜉𝑖𝜇̃𝑖 − (1 − 𝜉𝑖 0.85
𝑡 𝑡) > 𝑃(𝑥̃𝑖,𝑑,𝑒 𝑡 𝑡) > 𝑃(𝑥̃𝑖,𝑑,𝑒 0.85
𝑡 < 0) 𝑡)𝜇̃𝑖 − (1 − 𝜉𝑖 𝑡 < 0) 𝑡)𝜇̃𝑖 − (1 − 𝜉𝑖 0.85
(12) 𝑡 𝑡 < 0 will decrease, which increases the probability From Eq (12), when position sparsity exits in 𝑥𝑖,𝑗,𝑘 , the probability of 𝑠𝑖,𝑗,𝑘 𝑡 𝑡 will 𝑡 𝑦𝑖𝑗𝑘 lower probability of 𝑠𝑖,𝑗,𝑘 > 0 from Eq (7). (12) t t < 0 は減少し、これは Eq (12) から確率を増加し、 xi,j,k で位置のスパーシティが終了すると、 si,j,k t t の確率は Eq (7) から si,j,k > 0 の確率を t yijk より低くする。 0.85
In addition, a the to a lead 𝑡 and 𝛽𝑗𝑘 𝑡 backpropagation will not disappear. さらに、リードtとβjktのバックプロパゲーションに対するtheは消滅しない。 0.58
In other words, when 𝛼𝑖 have already determined the sparse channels and spatial locations, SASTM will reduce the likelihood that useful feature information is dropped after passing through the BN layer, thus maintaining meaningful features to alleviate the zero gradient problem. 言い換えれば、αiが既にスパースチャネルと空間的位置を決定づけている場合、SASTMはBN層を通過した後に有用な特徴情報がドロップされる可能性を減らすため、ゼロ勾配問題を緩和するための有意義な特徴を維持する。 0.69
𝑡 3) driving the convolutional weights away from being negative; From the above derivation, the probability that 𝑥̃𝑖,𝑑,𝑒 is less than zero after passing through the BN layer can be reduced when the proposed SASTM is implemented into the network, 𝑡 leads to a smaller probability. t 3) 畳み込み重みが負であることを避けるため、上記の導出から、提案したSASTMがネットワークに実装されると、BN層を通過すると、x,i,d,eが0未満になる確率が減少し、tはより小さい確率となる。 0.80
Therefore, for convenience, we will not consider the BN layer and a larger position sparsity rate 𝜉𝑖 in the discussion below. したがって、便宜上、以下の議論ではBN層とより大きな位置スパーシティーレートは考慮しません。 0.69
< 0 . Therefore, < 0 . そのため 0.81
the gradient larger 𝜉𝑖 in 勾配は より大きい で 0.68
英語(論文から抽出)日本語訳スコア
Self Sparse Generative Adversarial Networks 自己スパース生成型逆ネットワーク 0.72
7 𝑡 > 0 and 𝑥𝑖,𝑗,𝑘 7 t > 0 と xi,j,k 0.85
𝑡 > 0 from Eq (8), and then 𝑣𝑚,𝑖 > 0, it can be inferred 𝛻𝑣𝑚,𝑖 When 𝛻𝑦𝑖,𝑗,𝑘 𝑡 𝑡 algorithm. eq (8) から t > 0 とすると、vm,i > 0 となるが、これは syi,j,k t t アルゴリズムによって推測できる。 0.77
Similarly, according to Eq (9) and (10), 𝛻𝛼𝑖 𝑡 > 0 and 𝛻𝛽𝑗𝑘 𝑡 However, from Hypothesis 1, 𝛼𝑖 𝑡 and 𝛽𝑗𝑘 When 𝛻𝑦𝑖,𝑗,𝑘 𝑡 Eq. 同様に、eq (9) と (10) によれば、αi t > 0 とβjk t は仮説 1 と αi t と βjk から成り、yi,j,k t eq のときである。 0.80
(9) and promoted. will not be less than zero. 9)と上昇した。 ゼロ以下ではありません 0.66
According to Eq (8), 𝛻𝑣𝑚,𝑖 𝑡 is suppressed. Eq (8) によると、vm,i t は抑制される。 0.81
> 0, it can be inferred 𝛻𝑣𝑚,𝑖 𝑡 >0, inferred >vm,i t。 0.61
𝑡 and 𝛽𝑗𝑘 𝑡 𝑡 . 𝑡 and 𝛽𝑗𝑘 𝑡 𝑡 . 0.85
Therefore, the decrease of 𝑣𝑚,𝑖 したがって vm,i の減少は 0.79
𝑡 < 0 and 𝑥𝑖,𝑗,𝑘 (10), 𝛻𝛼𝑖 𝑡 < 0 and 𝑥𝑖,𝑗,𝑘 (10), 𝛻𝛼𝑖 0.79
𝑡 < 0 from Eq (8), and then 𝑣𝑚,𝑖 t < 0 から Eq (8) へ、次に vm,i 0.83
𝑡 < 0 and 𝛻𝛽𝑗𝑘 𝑡 𝑡 < 0 and 𝛻𝛽𝑗𝑘 𝑡 0.85
thus𝛼𝑖 𝑡 and𝛽𝑗𝑘 𝑡 soαi tとβjk t 0.62
< 0can be inferred, and <0 can be 推測、そして 0.66
will increase. Similarly, according to 増加するでしょう 同様に。 0.61
will increase. Therefore, ウィル 増して そのため 0.61
the 𝑡 increase of 𝑣𝑚,𝑖 はあ? vm の t 増加,i 0.58
is will decrease in the gradient descent は 勾配降下が減少します 0.73
> 0 can be inferred, and thus 𝛼𝑖 >0 は推論可能で、したがって αi である。 0.61
𝑡 and 𝛽𝑗𝑘 𝑡 will decrease. t と βjk t 減少するでしょう 0.82
𝑡 is obtained by the factors 𝛼𝑖 tはαi因子によって得られる 0.76
Therefore, the proposed SASTM enables to drive convolutional weights away from being negative. したがって、提案されたSASTMは、畳み込み重みを負から遠ざけることができる。 0.61
This phenomenon has been similarly reported as the Channel Scaling layer [33]. この現象は チャネルスケーリング層 [33] も同様に報告されている。 0.78
4.1. Baseline Model: WGAN-GP 4.1. ベースラインモデル:WGAN-GP 0.72
4 Experiments WGAN-GP [11] has good theoretical and stability properties in practice, and a zero-centered gradient penalty further enhances the convergency [3]. 4つの実験 WGAN-GP [11]は理論的および安定性に優れており、ゼロ中心の勾配ペナルティは収束性をさらに高めます[3]。 0.74
Therefore, WGAN with a zero-centered gradient penalty is adopted as the baseline for comparison with our method, and the objective function is as follows: したがって, ゼロ中心勾配ペナルティを持つWGANを本手法と比較する基準として採用し, 目的関数は以下の通りである。 0.85
min G max D V(G, D) = E𝐱~Pr min G 最大D V(G, D) = Ex~Pr 0.84
[D(𝐱)] − E𝐳~Pz [D(x)] − Ez~Pz 0.94
[D(G(𝐳))] − λ ∙ E𝐱̂~Px̂ [D(G(z))] − λ > Ex ~ Px ] 0.84
2] [‖∇x̂D(𝐱̂)‖2 2] [x/D(x/D)/2] 0.55
(13) where x, 𝐳, λ and x̂ represent uniformly along straight lines between pairs of real data and fake data [11]. (13) ここで x, z, λ, x は実データ対と偽データ [11] の間の直線に沿って一様を表す。 0.85
real data, the latent vector, gradient penalty coefficient and 実データだ はあ? 潜伏ベクトル、勾配ペナルティ係数および 0.56
random samples with ランダム サンプルは 0.70
sampling 4.2. サンプリング 4.2. 0.68
Experimental Settings We test the proposed Self-Sparse GAN using a DCGAN-like [2] network architecture on seven datasets: 1) MNIST: 60K grayscale images; 2) Fashion-MNIST: 60K grayscale images; 3) CIFAR-10: 60K RGB images; 4) STL-10: 100K RGB images; 5) mini-ImageNet: 60K RGB images; 6) CELEBA-HQ: 30K RGB images; 7) LSUN bedrooms: 3M RGB images. 実験設定 1) MNIST: 60Kグレースケール画像; 2) Fashion-MNIST: 60Kグレースケール画像; 3) CIFAR-10: 60K RGB画像; 4) STL-10: 100K RGB画像; 5) mini-ImageNet: 60K RGB画像; 6) CELEBA-HQ: 30K RGB画像; 7) LSUN寝室: 3M RGB画像。 0.77
Details are referred to Appendix 1 in the supplementary materials. 詳細は補足資料の付録1を参照してください。 0.59
The investigated resolutions of generated images are listed in Table 1. 生成された画像の解像度を表1に示す。 0.70
Datasets MNIST データセット MNIST 0.74
Fashion-MNIST ファッションMNIST 0.72
CIFAR-10 STL-10 CIFAR-10 STL-10 0.50
mini-ImageNet CELEBA-HQ LSUN bedrooms mini-ImageNet CELEBA-HQ LSUN 寝室 0.64
Resolution of generated images 32×32, 128×128 64×64, 128×128 生成画像の分解能 32×32, 128×128 64×64, 128×128 0.68
128×128×3 64×64×3 128×128×3 64×64×3 0.32
32×32×3, 64×64×3 64×64×3, 128×128×3 64×64×3, 128×128×3 32×32×3, 64×64×3 64×64×3, 128×128×3 64×64×3, 128×128×3 0.35
Table 1: The investigated resolutions of generated images. 表1: 生成された画像の解像度の検討。 0.72
英語(論文から抽出)日本語訳スコア
8 Qian et al 8 Qian et al 0.85
We use the Adam [34] optimizer and set the learning rates of generator and discriminator as 0.0001 and 0.0003 on all datasets as suggested in [35]. adam [34]オプティマイザを使用して,[35] で示唆されるように,ジェネレータと判別器の学習率を 0.0001 と 0.0003 に設定する。 0.68
Because multiple discriminator steps per generator step can help the GAN training in WGAN-GP, we set two discriminator steps per generator step for 100K generator steps. WGAN-GPでは, ジェネレータステップ毎に複数の識別器ステップを設定できるため, 100Kジェネレータステップ毎に2つの識別器ステップを設定した。 0.65
We set 𝛽1 = 0.5, 𝛽2 = 0.999 for MNIST, Fashion-MNIST, CIFAR-10, STL-10 and mini-ImageNet, and 𝛽1 = 0.0, 𝛽2 = 0.9for CELEBA-HQ and LSUN bedrooms. β1 = 0.5, β2 = 0.999 を MNIST, Fashion-MNIST, CIFAR-10, STL-10, mini-ImageNet, β1 = 0.0, β2 = 0.9 for CELEBA-HQ, LSUN の寝室に設定した。 0.63
For the evaluation of model sampling quality, we use Frechet Inception Distance (FID) [35] as the evaluation metric, which can measure the distance between the real and generated data distributions. モデルサンプリング品質の評価には、Frechet Inception Distance (FID) [35] を評価指標として使用し、実際のデータ分布と生成されたデータ分布の間の距離を測定することができます。 0.78
A smaller FID indicates better qualities of the generated images. 小さいFIDは生成されたイメージのよりよい質を示します。 0.73
The FID is calculated as: FIDは次のように計算される。 0.61
𝐹𝐼𝐷(𝑥, 𝑔) = ‖𝜇𝑥 − 𝜇𝑔‖ 𝐹𝐼𝐷(𝑥, 𝑔) = ‖𝜇𝑥 − 𝜇𝑔‖ 1.00
2 2 + 𝑇𝑟(∑𝑥 + ∑𝑔 − 2(∑𝑥∑𝑔)1/2) 2 2 + 𝑇𝑟(∑𝑥 + ∑𝑔 − 2(∑𝑥∑𝑔)1/2) 0.86
(14) where 𝜇 and ∑ denote mean and covariance, respectively, and 𝑥 and 𝑔 denote the real and generated data, respectively. (14) ここで μ は平均値と共分散値を表し、x と g はそれぞれ実データと生成されたデータを表します。 0.78
To obtain training curves quickly, the FID is evaluated every 500 generator steps using the 5K samples. トレーニング曲線を迅速に得るために、5kサンプルを用いて500個の生成ステップ毎にfidを評価する。 0.68
4.3. Results Comparison with WGAN-GP: Figure 4 shows the FID curves on MNIST and CIFAR-10, and those of other datasets are plotted in the Appendix 2 of the supplementary materials. 4.3. 結果 WGAN-GPとの比較:図4はMNISTおよびCIFAR-10上のFID曲線を示し、他のデータセットのものは補足材料の付録2にプロットされています。 0.75
Figure 4 indicates that our method converges faster in the same FID level. 図4は、この方法が同じFIDレベルでより速く収束することを示しています。 0.62
Table 2 shows the mean and standard deviation of the best FIDs on all datasets. 表2は、すべてのデータセットで最高のfidの平均と標準偏差を示しています。 0.69
Experimental results show that our method reduces FIDs on all datasets and the relative decrease of FID is 4.76% ~ 21.84%. 実験の結果,全データセットのfidを削減し,fidの相対的な減少率は4.76% ~21.84%であった。 0.66
Although the Self-Sparse GAN does not significantly exceed the baseline on CELEBA-HQ with the resolutions of 64×64×3, the relative decrease of FID is still close to 5%. 自己スパースGANは64×64×3の解像度でCELEBA本社のベースラインをはるかに上回っていないが、FIDの相対的な減少は5%近くである。 0.62
Meanwhile, these results demonstrate that our method can both improve the generation quality of grayscale and RGB images. これらの結果から,グレースケール画像とRGB画像の生成品質を向上できることが示された。 0.75
In addition, the relative improvement of model performance increases with the resolution of generated images from 64 × 64 × 3 to 128 × 128 × 3 on CELEBA-HQ and LSUN bedrooms. さらに, celeba-hq と lsun の寝室における生成画像の解像度が 64 × 64 × 3 から 18 × 128 × 3 に向上するにつれて, モデル性能の相対的向上がみられた。 0.74
(a) MNIST- 128 × 128 resolution (a) MNIST- 128 × 128 解像度 0.85
(b) CIFAR-10-128 × 128 × 3 resolution (b) CIFAR-10-128×128×3解像度 0.72
Figure 4: FID training curves on MNIST and CIFAR10, depicting the mean performance of three random trainings with a 95% confidence 図4:MNISTおよびCIFAR10上のFIDトレーニング曲線 : 95%信頼度をもつ3つのランダムトレーニングの平均性能 0.83
interval. 間隔だ 0.63
英語(論文から抽出)日本語訳スコア
Datasets MNIST (Grayscale) データセット MNIST (Grayscale) 0.74
Fashion- MNIST (Grayscale) Fashion-MNIST (Grayscale) 0.99
CIFAR-10 (RGB) STL-10 (RGB) CIFAR-10 (RGB) STL-10 (RGB) 0.81
Self Sparse Generative Adversarial Networks 自己スパース生成型逆ネットワーク 0.72
9 Resolution Model FID 9 解決 モデル FID 0.77
Datasets Resolution Model データセット 解決 モデル 0.67
FID 32×32×1 FID 32×32×1 0.62
128×128×1 64×64×1 128×128×1 64×64×1 0.39
128×128×1 128×128×3 128×128×1 128×128×3 0.39
64×64×3 WGAN-GP 64×64×3 WGAN-GP 0.49
Ours WGAN-GP 我々の WGAN-GP 0.59
Ours WGAN-GP 我々の WGAN-GP 0.59
Ours WGAN-GP 我々の WGAN-GP 0.59
Ours WGAN-GP 我々の WGAN-GP 0.59
Ours WGAN-GP 我々の WGAN-GP 0.59
Ours 7.43 ± 0.28 6.26 ± 0.64 10.42 ± 0.86 8.32 ± 1.03 20.37 ± 0.87 15.92 ± 1.10 20.41 ± 0.70 17.67 ± 0.87 43.77 ± 2.10 36.69 ± 1.53 63.88 ± 1.33 56.23 ± 1.38 我々の 7.43 ± 0.28 6.26 ± 0.64 10.42 ± 0.86 8.32 ± 1.03 20.37 ± 0.87 15.92 ± 1.10 20.41 ± 0.70 17.67 ± 0.87 43.77 ± 2.10 36.69 ± 1.53 63.88 ± 1.33 56.23 ± 1.38 0.55
mini- ImageNet (RGB) mini- ImageNet (RGB) 0.99
32×32×3 64×64×3 32×32×3 64×64×3 0.39
CELEBA- 64×64×3 セレバ- 64×64×3 0.41
HQ (RGB) LSUN bedrooms (RGB) HQ(RGB) lsun 寝室 (rgb) 0.76
128×128×3 64×64×3 128×128×3 64×64×3 0.39
128×128×3 WGAN-GP 128×128×3 WGAN-GP 0.49
Ours WGAN-GP 我々の WGAN-GP 0.59
Ours WGAN-GP 我々の WGAN-GP 0.59
Ours WGAN-GP 我々の WGAN-GP 0.59
Ours WGAN-GP 我々の WGAN-GP 0.59
Ours WGAN-GP 我々の WGAN-GP 0.59
Ours 33.16 ± 0.02 28.88 ± 0.37 58.81 ± 3.28 54.78 ± 0.28 15.95 ± 0.44 15.19 ± 0.18 32.40 ± 2.03 27.72 ± 1.54 59.12 ± 0.95 55.06 ± 2.00 102.16 ± 0.85 84.78 ± 2.89 我々の 33.16 ± 0.02 28.88 ± 0.37 58.81 ± 3.28 54.78 ± 0.28 15.95 ± 0.44 15.19 ± 0.18 32.40 ± 2.03 27.72 ± 1.54 59.12 ± 0.95 55.06 ± 2.00 102.16 ± 0.85 84.78 ± 2.89 0.55
Table 2: Comparison of FIDs between our proposed Self-Sparse GAN and the baseline WGAN-GP. 表2:提案した自己スパースGANとベースラインWGAN-GPのFIDの比較。 0.76
The mean and standard deviation of the FID are calculated through three individual training with different random seeds. 平均値と標準偏差。 fidはランダムシードの異なる3つの個別トレーニングによって計算される。 0.58
On multiple datasets, our reported FIDs for WGAN-GP may be smaller than other literature. 複数のデータセットにおいて、WGAN-GPのFIDは他の文献よりも小さい可能性がある。 0.58
For example, On the STL-10 dataset, the reported FID for the WGAN-GP is 63.88, which is smaller than 55.1 reported by [36]. 例えば、STL-10データセットでは、WGAN-GPの報告されたFIDは63.88であり、[36]によって報告された55.1より小さい。 0.62
The main reason is that we used 5K samples in a resolution of 64 × 64 × 3 to calculate FID rather than using 50K samples in a resolution of 48 × 48 × 3 in [36]. 主な理由は、5Kサンプルを64 × 64 × 3の解像度で使用して[36]の48 × 48 × 3の解像度で50Kサンプルを使用するのではなく、FIDを計算するためです。 0.79
Table 3 shows the new FIDs by 50K samples, which shows the FID is better than 55.1 even with 64 × 64 × 3 resolution. 表3は、FIDが64 × 64 × 3の解像度でも55.1よりも優れていることを示す50Kサンプルによる新しいFIDを示しています。 0.72
Therefore, this paper doesn’t lower the baseline. したがって、本論文はベースラインを下げるものではない。 0.69
4.4. Ablations 4.4. アブレーション 0.63
Samples WGAN-GP サンプル WGAN-GP 0.70
Self-Sparse GAN 5K 50K 自己分離ガン 5K 50K 0.58
63.88 54.23 63.88 54.23 0.50
56.26 46.85 56.26 46.85 0.50
Table 3: The FIDs in STL-10 with resolution of 64 × 64 × 3 by 50K samples 表3:64 × 64 × 3 by 50Kサンプルの解像度を持つSTL-10のFID。 0.80
𝑡 represents using CSM only and 𝛽𝑗,𝑘 t は CSM のみおよび βj,k で表す 0.85
= 0. Similarly, “without CSM” = 0. 同様に “without CSM” 0.84
To investigate the effects of CSM and PSM in the proposed SASTM, we perform ablation studies on Fashion-MNIST and represents using PSM only 提案SASTMにおけるCSMとPSMの効果を調べるために,Fashion-MNISTのアブレーション研究を行い,PSMのみを用いて表現する。 0.78
STL-10. “Without PSM” 𝑡 = 0. and 𝛼𝑖 As shown in Table 4, the model performance has a significant improvement on Fashion-MNIST and STL-10 when both CHM and PSM are applied. STL-10。 表4に示すように, PSM t = 0 および αi がなければ,CHM と PSM の両方を適用した場合のモデル性能は Fashion-MNIST と STL-10 に著しく向上する。 0.74
Since the position sparsity coefficient 𝜷𝒕 is shared by all channels, it is difficult to represent the pixel-wise sparsity among different channels without 𝜶𝒕. 位置間隔係数βtはすべてのチャネルで共有されるため、αtのない異なるチャネル間の画素方向の間隔を表すことは困難である。 0.66
Therefore, using only PSM may not function well. したがって、PSMのみの使用はうまく機能しない。 0.71
On the other hand, when only CSM is used, the model may lack generation power. 一方、CSMのみを使用する場合、モデルには生成電力が不足する可能性がある。 0.75
Figure 5 also shows that using only CSM on the Fashion-MNIST dataset causes the multi-channel feature maps too sparse, which will suppress the model performance. 図5はまた、Fashion-MNISTデータセットでCSMのみを使用すると、マルチチャネルのフィーチャーマップがスパースになり、モデルのパフォーマンスが低下することを示している。
訳抜け防止モード: 図5はまた、 Fashion-MNISTデータセット上のCSMのみを使用する マルチチャネルフィーチャーマップがスパースすぎるため、モデルパフォーマンスが抑制される。
0.87
英語(論文から抽出)日本語訳スコア
10 Datasets 10 データセット 0.74
Resolution Fashion- MNIST 解決 Fashion-MNIST 0.74
128×128×1 STL-10 128×128×1 STL-10 0.49
64×64×3 Qian et al 64×64×3 Qian et al 0.62
Method WGAN-GP Ours WGAN-GP法 我々の 0.60
Without PSM Without CSM WGAN-GP PSM なし CSM WGAN-GP。 0.75
Ours Without PSM Without CSM 我々の CSMなしPSMなし 0.65
Table 4: Comparisons of FIDs in ablation studies on Fashion-MNIST and STL-10. 表4 ファッションMNISTとSTL-10のアブレーション研究におけるFIDの比較 0.76
Datasets STL-10 データセット STL-10 0.61
𝜷𝟏, 𝜷𝟐 0, 0.9 0, 0.9 0.5,0.999 0.5,0.999 𝜷𝟏, 𝜷𝟐 0, 0.9 0, 0.9 0.5,0.999 0.5,0.999 0.50
Method WGAN-GP Ours WGAN-GP法 我々の 0.60
WGAN-GP Ours WGAN-GP 我々の 0.59
FID 20.41 ± 0.70 17.67 ± 0.87 FID 20.41 ± 0.70 17.67 ± 0.87 0.70
21.51 ± 0.29 21.51 ± 0.29 0.59
163.71±3.99 63.88 ± 1.33 56.23 ± 1.38 60.85 ± 0.99 64.87 ± 1.71 163.71±3.99 63.88 ± 1.33 56.23 ± 1.38 60.85 ± 0.99 64.87 ± 1.71 0.46
FID 63.88 ± 1.33 FID 63.88 ± 1.33 0.72
56.23 ± 1.38 56.23 ± 1.38 0.59
67.13 ± 0.77 67.13 ± 0.77 0.59
56.51 ± 1.62 56.51 ± 1.62 0.59
Table 5: Comparisons of FID in the robustness experiments on STL-10 with different Adam hyperparameter settings. 表5:異なるアダムハイパーパラメータ設定を持つSTL-10の堅牢性実験におけるFIDの比較。 0.80
Datasets Arch データセット アーチ 0.60
STL-10 DCGAN STL-10 DCGAN 0.72
ResNet Method WGAN-GP ResNet WGAN-GP法 0.73
Ours WGAN-GP 我々の WGAN-GP 0.59
Ours FID 63.88 ± 1.33 我々の FID 63.88 ± 1.33 0.68
56.23 ± 1.38 56.23 ± 1.38 0.59
65.16 ± 5.96 65.16 ± 5.96 0.59
60.31 ± 4.29 60.31 ± 4.29 0.59
Table 6: Comparisons of FID in the robustness experiments on STL-10 with different network architectures. 表6: STL-10の堅牢性実験におけるFIDと異なるネットワークアーキテクチャの比較。 0.87
Figure 5: Ablation study. 図5: アブレーション研究。 0.80
Refer to Section 4.4 for details. 詳細は4.4項を参照。 0.76
Using only CHM causes too sparse multi-channel feature maps. CHMのみを使用することで、マルチチャネル機能マップが狭すぎます。 0.60
英語(論文から抽出)日本語訳スコア
Self Sparse Generative Adversarial Networks 自己スパース生成型逆ネットワーク 0.72
11 Robustness are very 11 ロバスト性 非常に 0.67
sensitive to Hyperparameters of Adam Training. 敏感 アダムトレーニングのハイパーパラメータに。 0.71
GANs the optimizer. GAN オプティマイザ。 0.54
Therefore, we evaluate different hyperparameter settings to validate the robustness of our method. そこで,本手法のロバスト性を検証するために,異なるハイパーパラメータの設定を評価する。 0.63
We test two popular settings of (𝛽1, 𝛽2) in Adam: (0, 0.9) and (0.5, 0.999). 我々はアダムの2つの一般的な設定 (β1, β2) をテストする: (0, 0.9) と (0.5, 0.999) である。 0.67
Table 5 compares the mean and standard deviation of FID scores on STL-10. 表5は、stl-10におけるfidスコアの平均と標準偏差を比較する。 0.62
It suggests that the proposed Self-Sparse GAN consistently improves model performance. 提案したSelf-Sparse GANはモデル性能を継続的に改善する。 0.65
to hyperparameters of ハイパーパラメータに 0.60
Robustness to Network Architectures. ネットワークアーキテクチャに対する堅牢性。 0.72
To further test the robustness of the proposed Self-Sparse GAN to different network architectures, we use two common network architectures from DCGAN and ResNet on STL-10. 提案する自己分離型GANのネットワークアーキテクチャに対する堅牢性をさらに検証するため,STL-10上でDCGANとResNetの2つの共通ネットワークアーキテクチャを用いる。 0.76
Details are referred to Appendix 3 in the supplementary materials. 詳細は補足資料の付録3を参照してください。 0.59
Table 6 compares the FID scores using different network architectures on STL-10, which shows that our method is robust to both DCGAN and ResNet network architectures. 表6では,STL-10上の異なるネットワークアーキテクチャを用いてFIDスコアを比較し,本手法がDCGANとResNetのネットワークアーキテクチャに対して堅牢であることを示す。 0.70
Figure 6: Visualization of the feature map of the output of SASTM. 図6:SASTMの出力の特徴マップの可視化。 0.73
It can be observed that Self-Sparse GAN learns to pick useful セルフスパースGANが有用なものを選ぶことを学ぶことが観察できる 0.64
convolutional kernels instead of using all convolutional kernels for image generation. 画像生成にすべての畳み込みカーネルを使う代わりに、畳み込みカーネル。 0.60
In a), we can observe that some sparse feature maps a)では、いくつかのスパースな特徴マップが観察できます。 0.65
have regular feature points, which means that the PSM is working. 通常の特徴点を持つため、PSMは機能している。 0.70
4.5. Visualization of SASTM Features 4.5. SASTM特徴の可視化 0.81
To illustrate the function of SASTM, we visualize the multi-channel feature maps of each deconvolution layer in the generator on MNIST with a resolution of 128×128. SASTMの機能を説明するために,MNIST上のジェネレータ内の各デコンボリューション層のマルチチャネル特徴写像を128×128の解像度で可視化する。 0.76
Figure 6 shows multi-channel feature maps in two representative levels of 64 × 64 and 32 × 32, and results in other spatial sizes are shown in Appendix 4 of the supplementary materials. 図6は64×64と32×32の2つの代表的なレベルのマルチチャネル特徴マップを示し、追加資料の付録4に他の空間サイズの結果が示されている。 0.79
Results show that the proposed Self-Sparse GAN learns to pick useful sparse convolutional kernels instead of using all kernels greedily. その結果,提案する自己スパースganは,すべてのカーネルをゆるやかに使用するのではなく,有用なスパース畳み込み型カーネルを選択することを学ぶ。 0.37
It also proves that our method can obtain sparse multi-channel feature maps, thus reducing network parameters. また,本手法は分散マルチチャネル特徴マップを得ることができ,ネットワークパラメータを低減できることを示す。 0.72
Validation of Hypothesis 1: We can verify this hypothesis by visualizing feature maps under different training steps on MNIST, as shown in Figure 7. 仮説1の検証:図7に示すように、mnistの異なるトレーニングステップで特徴マップを視覚化することで、この仮説を検証することができる。
訳抜け防止モード: 仮説1の検証 : この仮説を検証できる 図7に示すように、MNIST上の異なるトレーニングステップの下でフィーチャーマップを視覚化する。
0.79
The results illustrate that the sign of 𝛼𝑖 will remain unchanged after 5000 generator steps. 結果は、αiの兆候が5000ジェネレータステップ後に変更されないことを示しています。
訳抜け防止モード: その結果 αi の符号は5000 個の生成段階を経て変わらず残される。
0.67
𝑡 and 𝛽𝑗,𝑘 𝑡 t と βj,k t 0.96
Figure 7 Validation of Hypothesis 1 on MNIST with the resolution of 128×128 図7 解像度128×128のMNIST上の仮説1の検証 0.81
英語(論文から抽出)日本語訳スコア
12 Qian et al 12 Qian et al 0.85
4.6. Investigation of Relationship between Sparsity and FID 4.6. スパルシリティとfidとの関連性の検討 0.67
In Section 3.2, we have proved that the proposed SASTM will alleviate the zero gradient problem and thus improve the model performance. セクション3.2では、提案したSASTMがゼロ勾配問題を緩和し、モデル性能を向上させることを証明した。 0.69
To analyze the relationship between model sparsity and FID quantitatively, we define the average position sparsity rate 𝜉 ̅of the generators as モデルスパース率とFIDの関係を定量的に解析するため、発電機の平均位置スパース率を次のように定義します。 0.66
𝜉̅ = 1 𝑇 ∑ ( 𝑡 𝜉̅ = 1 𝑇 ∑ ( 𝑡 0.85
1 𝑡 𝐶𝑡 ∑ 𝜉𝑖 𝑖 1 𝑡 𝐶𝑡 ∑ 𝜉𝑖 𝑖 0.85
) , 𝑡 ∈ {1,2, … 𝑇}, ) , 𝑡 ∈ {1,2, … 𝑇}, 0.89
𝑖 ∈ {1,2, … 𝐶𝑡} 𝑖 ∈ {1,2, … 𝐶𝑡} 0.96
(15) We select the same network architecture to calculate the corresponding average position sparsity rate according to Eq (15), as shown in Table 7. (15) 表7に示すように、同じネットワークアーキテクチャを選択して、eq(15)に従って対応する平均位置スパーシティ率を算出する。 0.83
From the data, it indicates that a larger average position sparsity rate may lead to a greater improvement in FID except on the mini-ImageNet with 64 × 64 resolution and CIFAR-10 with 128 × 128 resolution, which will be further investigated in the future study. この結果から,64×64解像度のミニイメージネットと128×128解像度のcifar-10を除き,平均位置スパーシティ率が大きくなるとfidがさらに向上する可能性が示唆された。 0.65
The Pearson’s coefficient is used to measure the correlation between the average position sparsity rate and FID as Pearsonの係数は、平均位置の間隔率とFIDとの相関を測定するために使用されます。 0.80
𝜌(𝝃̅, 𝜼) = 𝜌(𝝃̅, 𝜼) = 0.85
𝐸[(𝝃̅ − 𝜇𝝃̅)(𝜼 − 𝜇𝜼)] 𝐸[(𝝃̅ − 𝜇𝝃̅)(𝜼 − 𝜇𝜼)] 0.73
𝜎𝝃̅𝜎𝜼 (16) 𝜎𝝃̅𝜎𝜼 (16) 0.85
where 𝝃̅ and 𝜼 denote the average position sparsity rate and the relative decrease of FID, respectively. ここで η と η は、それぞれ FID の平均位置間隔率と相対減少率を表す。 0.69
A positive correlation between the average position sparsity rate and FID is found. 平均位置間隔率とFIDとの間には正の相関が認められた。 0.69
When the resolution of the generated image is 64 × 64, Pearson's correlation coefficient is 0.62. 生成した画像の解像度が64×64の場合、ピアソンの相関係数は0.62である。 0.71
When the resolution of the generated image is 128 × 128, Pearson’s correlation coefficient is 0.79. 生成された画像の解像度が128 × 128の場合、ピアソンの相関係数は0.79です。 0.74
Meanwhile, with the increase of resolution, the Pearson's correlation coefficient will increase. 一方、解像度が上がるにつれて、ピアソンの相関係数は増加する。 0.63
Resolution Datasets 64×64 解決 データセット 64×64 0.60
STL-10 mini-ImageNet CELEBA-HQ LSUN bedrooms STL-10 mini-ImageNet CELEBA-HQ LSUN 寝室 0.61
Average Position Sparsity Rate 0.44 0.47 0.26 0.39 平均sparsity rate 0.44 0.47 0.26 0.39 0.58
FID Reduction Resolution Datasets FID 削減 解決 データセット 0.67
(%) 11.97 6.83 4.76 6.86 (%) 11.97 6.83 4.76 6.86 0.65
128×128 MNIST CIFAR-10 CELEBA-HQ LSUN bedrooms 128×128 MNIST CIFAR-10 ケレバ本社スン寝室 0.59
Average Position Sparsity Rate 0.53 0.47 0.21 0.31 平均sparsity rate 0.53 0.47 0.21 0.31 0.58
FID Reduction (%) FID 削減 (%) 0.77
20.21 16.17 14.43 17.02 20.21 16.17 14.43 17.02 0.45
Table 7: Relationship between sparseness and FID with the same network architecture. 表7:同じネットワークアーキテクチャのスパース性とfidの関係。 0.70
5 Conclusions In this study, a Self Sparse Generative Adversarial Network (Self-Sparse GAN) is proposed for the unsupervised image generation task. 結論5 本研究では、教師なし画像生成タスクに対して自己スパース生成適応ネットワーク(Self-Sparse GAN)を提案する。 0.70
By exploiting channel sparsity and position sparsity in multi-channel feature maps, Self-Sparse GAN stabilizes the training process and improves the model performance by: (1) reducing the search space of convolution parameters in the generator; the convolutional weights away from being negative. 多チャンネル特徴写像におけるチャネルの間隔と位置の間隔を利用して、セルフスパースGANはトレーニングプロセスを安定させ、(1)ジェネレータ内の畳み込みパラメータの探索空間を減らし、畳み込み重みが負にならないようにすることでモデル性能を向上させる。
訳抜け防止モード: マルチチャネル特徴写像 self におけるチャネルスパーシティと位置スパーシティの活用 スパースganはトレーニングプロセスを安定化させ,モデル性能を (1 ) 向上させる 発電機における畳み込みパラメータの探索空間の削減 畳み込み重みは負の重みから遠ざかる。
0.76
We demonstrate the proposed method on seven image datasets. 提案手法を7つの画像データセットに示す。 0.78
Experimental results show that our approach can obtain better FIDs on all the seven datasets compared with WGAN-GP, and is robust to both training hyperparameters and network architectures. 実験の結果,WGAN-GPと比較して7つのデータセットのFIDが良好であること,ハイパーパラメータとネットワークアーキテクチャのトレーニングに頑健であることが確認された。 0.69
Besides, a positive correlation between sparsity and FID further validates that the proposed sparsity module enhances the image generation power of the model. さらに、スパーシティとFIDの正の相関は、提案したスパーシティモジュールがモデルの画像生成能力を高めることをさらに証明する。 0.62
(2) maintaining meaningful alleviate 2)有意義な維持 alleviate~ 0.77
features the BN zero gradient 特徴 BN ゼロ 勾配 0.66
problem; (3) driving 問題です (3) 運転 0.70
in layer to the で 層 へ はあ? 0.61
英語(論文から抽出)日本語訳スコア
Self Sparse Generative Adversarial Networks 自己スパース生成型逆ネットワーク 0.72
13 Acknowledgment Financial support for this study was provided by the National Natural Science Foundation of China [No. 13 承認 この研究の財政的支援は中国国立自然科学財団が提供した[No。 0.72
51638007, 51921006, U1711265 and 52008138], National Key R&D Program of China [No. 51638007, 51921006, U1711265, 52008138], National Key R&D Program of China [No。 0.79
2018YFC0705605 and 2019YFC1511102], China Postdoctoral Science Foundation [No. 2018YFC0705605 and 2019YFC1511102, China Postdoctoral Science [No。 0.84
BX20190102 and 2019M661286], and Heilongjiang Post-doctoral General Funding [No. BX20190102, 2019M661286], and Heilongjiang Post-Doctoral General Funding [No。 0.81
LBH-Z19064]. LBH-Z19064]。 0.72
References growing 参考文献 growing~ 0.70
gans T., et quality, ガンス T。 など 品質 0.56
stability, for improved 安定性 ですから 改良 0.67
arXiv preprint arXiv プレプリント 0.74
and variation. そして バリエーション。 0.65
Progressive Jenni, S. and P. Favaro. 進歩 Jenni, S. and P. Favaro 0.73
On stabilizing generative adversarial training with noise. 騒音による生成的対向訓練の安定化について 0.59
in Proceedings of the IEEE Conference IEEEカンファレンスの開催にあたって 0.81
Zhang, H., et al Self-attention generative adversarial networks. Zhang, H., et al Self-attention generative adversarial network。 0.93
in International Conference on Machine Learning. 機械学習に関する国際会議に参加。 0.80
2019: Radford, A., L. Metz and S. Chintala, Unsupervised representation learning with deep convolutional generative adversarial 2019: Radford, A., L. Metz, S. Chintala, Unsupervised representation learning with Deep Convolutional generation adversarial 0.88
[1]. Goodfellow, I., et al Generative adversarial nets. [1]. Goodfellow, I., et al Generative adversarial nets。 0.74
in Advances in neural information processing systems. 神経情報処理システムの進歩。 0.60
2014. [2]. 2014. [2]. 0.77
networks. arXiv preprint arXiv:1511.06434, 2015. ネットワーク。 arXiv preprint arXiv:1511.06434, 2015 0.76
[3]. Mescheder, L., A. Geiger and S. Nowozin. [3]. Mescheder、L.、A. GeigerおよびS. Nowozin。 0.77
Which Training Methods for GANs do actually Converge. GANのどのトレーニング方法が実際に収束するか。 0.62
in international conference on machine learning. 機械学習に関する国際会議で 0.69
2018. Salimans, T., et al Improved techniques for training gans. 2018. Salimans, T., et al Improved techniques for training gans。 0.82
in Advances in neural information processing systems. 神経情報処理システムの進歩。 0.60
2016. [4]. 2016. [4]. 0.76
[5]. Arjovsky, M. and L. Bottou. [5]. Arjovsky, M. and L. Bottou 0.79
Towards Principled Methods for Training Generative Adversarial Networks. 生成型adversarial networkの訓練方法の原理化に向けて 0.70
in international conference on learning representations. 学習表現に関する国際会議に出席しました 0.61
2017. [6]. 2017. [6]. 0.77
on Computer Vision and Pattern Recognition. コンピュータビジョンとパターン認識についてです 0.78
2019. [7]. 2019. [7]. 0.77
Karras, of al., arXiv:1710.10196, 2017. Karras, of al., arXiv:1710.10196, 2017 0.85
[8]. PMLR. [8]. PMLR。 0.74
[9]. Arjovsky, M., S. Chintala and L. Bottou, Wasserstein gan. [9]. Arjovsky, M., S. Chintala and L. Bottou, Wasserstein gan。 0.82
arXiv preprint arXiv:1701.07875, 2017. arXiv preprint arXiv:1701.07875, 2017 0.79
[10]. Mao, X., et al Least Squares Generative Adversarial Networks. [10]. Mao, X., et al Least Squares Generative Adversarial Networks 0.70
in international conference on computer vision. コンピュータビジョンに関する国際会議で 0.68
2017. [11]. 2017. [11]. 0.77
Gulrajani, I., et al Improved training of wasserstein GANs. Gulrajani, I., et alwasserstein GANのトレーニングを改善しました。 0.78
in neural information processing systems. 神経情報処理システムです 0.57
2017. [12]. 2017. [12]. 0.77
Miyato, T., et al. Miyato, T., et al. 0.85
Spectral Normalization for Generative Adversarial Networks. 生成逆ネットワークのスペクトル正規化 0.64
in international conference on learning representations. 学習表現に関する国際会議に出席しました 0.61
2018. [13]. 2018. [13]. 0.77
Liu, B., et al Sparse Convolutional Neural Networks. Liu, B., et al Sparse Convolutional Neural Networks 0.73
in computer vision and pattern recognition. コンピュータビジョンとパターン認識です 0.63
2015. [14]. 2015. [14]. 0.77
Louizos, C., M. Welling and D.P. Louizos, C., M. Welling, D.P. 0.85
Kingma. Learning Sparse Neural Networks through L_0 Regularization. キングマ。 L_0正規化によるスパースニューラルネットワークの学習 0.65
in international conference on learning representations. 学習表現に関する国際会議に出席しました 0.61
2018. [15]. 2018. [15]. 0.76
Deng, L., The mnist database of handwritten digit images for machine learning research [best of the web]. Deng, L., The mnist database of handwriting digit images for machine learning research [best of the web]。 0.74
IEEE Signal Processing Magazine, 2012. IEEE Signal Processing Magazine、2012年。 0.84
29(6): p. 141-142. 29(6):p.141-142。 0.75
[16]. Xiao, H., K. Rasul and R. Vollgraf, Fashion-mnist: a novel image dataset for benchmarking machine learning algorithms. [16]. xiao, h., k. rasul and r. vollgraf, fashion-mnist: a novel image dataset for benchmarking machine learning algorithms (英語) 0.74
arXiv preprint arXiv:1708.07747, 2017. arXiv preprint arXiv:1708.07747, 2017 0.79
[17]. Krizhevsky, A. and G. Hinton, Learning multiple layers of features from tiny images. [17]. Krizhevsky, A. and G. Hinton, 小さなイメージから複数の機能層を学ぶ。 0.78
2009. [18]. 2009. [18]. 0.77
Coates, A., A. Ng and H. Lee. Coates, A., A. Ng, H. Lee 0.85
An analysis of single-layer networks in unsupervised feature learning. 教師なし特徴学習における単層ネットワークの解析 0.79
in Proceedings of the fourteenth international conference on artificial intelligence and statistics. 第14回人工知能と統計に関する国際会議の議事録 0.66
2011. [19]. 2011. [19]. 0.77
Vinyals, O., et al Matching networks for one shot learning. Vinyals, O., et al Matching network for one shot learning. (英語) 0.79
in Advances in neural information processing systems. 神経情報処理システムの進歩。 0.60
2016. [20]. 2016. [20]. 0.76
Yu, F., et al , LSUN: Construction of a Large-scale Image Dataset using Deep Learning with Humans in the Loop. Yu, F., et al , LSUN: ループ内の人間によるディープラーニングを用いた大規模画像データセットの構築。 0.83
arXiv: Computer Vision and Pattern Recognition, 2015. arXiv: Computer Vision and Pattern Recognition, 2015年。 0.89
[21]. Brock, A., J. Donahue and K. Simonyan, Large scale gan training for high fidelity natural image synthesis. [21]. Brock, A., J. Donahue and K. Simonyan, Large scale gan training for high fidelity natural image synthesis。 0.79
arXiv preprint arXiv:1809.11096, 2018. arXiv preprint arXiv:1809.11096, 2018 0.79
[22]. Zhou, Y. and T.L. [22]. Zhou、Y.およびT.L。 0.72
Berg. Learning temporal transformations from time-lapse videos. Berg 時間経過ビデオから時間変化を学ぶ。 0.62
in European conference on computer vision. コンピュータビジョンに関する欧州会議で。 0.77
2016: Springer. [23]. 2016年:春。 [23]. 0.66
Isola, P., et al Image-to-image translation with conditional adversarial networks. Isola, P., et al Image-to-image translation with Conditional adversarial network。 0.84
in Proceedings of the IEEE conference on computer vision and pattern recognition. In Proceedings of the IEEE conference on computer vision and pattern recognition 0.75
2017. [24]. 2017. [24]. 0.77
Kupyn, O., et al Deblurgan: Blind motion deblurring using conditional adversarial networks. Kupyn, O., et al Deblurgan: 条件付き対向ネットワークを用いたブラインドモーションデブロワーリング。 0.73
in Proceedings of the IEEE conference on computer vision and pattern recognition. In Proceedings of the IEEE conference on computer vision and pattern recognition 0.75
2018. [25]. 2018. [25]. 0.77
Huh, M., S. Sun and N. Zhang. Huh、M.、S.SunおよびN. Zhang。 0.83
Feedback adversarial networks. フィードバックの敵ネットワーク。 0.70
in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition 0.74
2019. [26]. 2019. [26]. 0.77
Karras, T., S. Laine and T. Aila. Karras, T., S. Laine, T. Aila 0.87
A style-based generator architecture for generative adversarial networks. 生成逆ネットワークのためのスタイルベースジェネレータアーキテクチャ 0.73
in Proceedings of the IEEE conference on computer vision and pattern recognition. In Proceedings of the IEEE conference on computer vision and pattern recognition 0.75
2019. [27]. 2019. [27]. 0.77
Chen, T., et al , On self modulation for generative adversarial networks. Chen, T., et al, on self modulation for generation adversarial network. (英語) 0.88
arXiv preprint arXiv:1810.01365, 2018. arXiv preprint arXiv:1810.01365, 2018 0.79
[28]. Mahdizadehaghdam, S., A. Panahi and H. Krim. [28]. Mahdizadehaghdam, S., A. Panahi and H. Krim 0.79
Sparse Generative Adversarial Network. Sparse Generative Adversarial Networkの略。 0.73
in Proceedings of the IEEE International Conference on Computer Vision Workshops. In Proceedings of the IEEE International Conference on Computer Vision Workshops(英語) 0.87
2019. [29]. 2019. [29]. 0.77
Krizhevsky, A., Imagenet Krizhevsky, A., Imagenet 0.85
learning: Spatial feedback 学習:空間的フィードバック 0.82
for improving generative adversarial ですから 生成的敵意を改善する 0.54
I. Sutskever I. Sutskever 0.88
and G.E. Hinton. そしてG.E. Hinton 0.61
classification with deep convolutional neural networks. 深く分類する 畳み込みニューラルネットワーク。 0.68
in 0.73
英語(論文から抽出)日本語訳スコア
14 Qian et al 14 Qian et al 0.85
Advances in neural information processing systems. 神経情報処理システムの進歩。 0.73
2012. [30]. 2012. [30]. 0.76
Simonyan, K. and A. Zisserman, Very deep convolutional networks arXiv:1409.1556, 2014. Simonyan, K. and A. Zisserman, Very Deep Convolutional Network arXiv:1409.1556, 2014 0.85
[31]. Han, S., H. Mao and W.J. [31]. Han, S., H. Mao, W.J. 0.77
Dally, Deep compression: Compressing deep neural networks with pruning, trained quantization and huffman coding. dally, deep compression: pruning, training quantization, huffman codingによるディープニューラルネットワークの圧縮。 0.81
arXiv preprint arXiv:1510.00149, 2015. arXiv preprint arXiv:1510.00149, 2015 0.80
[32]. Fu, J., et al Dual attention network for scene segmentation. [32]. Fu, J., et al シーンセグメンテーションのための二重注意ネットワーク。 0.72
in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition 0.74
2019. [33]. 2019. [33]. 0.77
Wang, Y., et al Person re-identification with cascaded pairwise convolutions. Wang, Y., et al Person re-identification with cascaded pairwise convolutions. (英語) 0.74
in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition 0.74
2018. [34]. 2018. [34]. 0.77
Kingma, D.P. キングマ d. p. 0.62
and J. Ba, Adam: A method for stochastic optimization. そして J. Ba, Adam: 確率最適化の方法です。 0.72
arXiv preprint arXiv:1412.6980, 2014. arXiv preprint arXiv:1412.6980, 2014 0.80
[35]. Heusel, M., et al Gans trained by a two time-scale update rule converge to a local nash equilibrium. [35]. Heusel, M., et al Gans は 2 時間規模の更新規則によって訓練され、局所ナッシュ平衡に収束する。 0.69
in Advances in neural information processing systems. 神経情報処理システムの進歩。 0.60
2017. [36]. 2017. [36]. 0.77
Parimala, K. and S. Channappayya. Parimala, K. and S. Channappayya 0.90
Quality Aware Generative Adversarial Networks. 品質に配慮した生成的敵ネットワーク 0.57
in NeurIPS 2019. NeurIPS 2019で。 0.80
2019. image recognition. 2019. 画像認識。 0.77
arXiv preprint arXiv プレプリント 0.83
for large-scale ですから 大規模 0.60
                             ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。