論文の概要、ライセンス

# (参考訳) 群同変部分サンプリング [全文訳有]

Group Equivariant Subsampling ( http://arxiv.org/abs/2106.05886v1 )

ライセンス: CC BY 4.0
Jin Xu, Hyunjik Kim, Tom Rainforth, Yee Whye Teh(参考訳) サブサンプリングは、プールやストライド畳み込みの形で畳み込みニューラルネットワーク(CNN)で使われ、特徴写像の空間次元を小さくし、受容野が深さとともに指数関数的に成長できるようにする。 しかし、そのような部分サンプリング操作は、変換同変である畳み込みとは異なり、翻訳同変ではないことが知られている。 ここではまず,完全翻訳同変cnnの構築に使用できる翻訳同変部分サンプリング/アップサンプリング層について紹介する。 次にこれらの層を一般群への変換を超えて一般化し、したがって群同変部分サンプリング/アップサンプリングを提案する。 これらの層を用いて群同変オートエンコーダ(GAE)を構築し、低次元同変表現を学習する。 我々は、表現が入力の翻訳と回転と実際に同値であることのイメージを経験的に検証し、その結果、見つからない位置と向きによく一般化する。 さらに,マルチオブジェクトデータセット上でオブジェクト中心表現を学習するモデルにおいて,gaesを用いて,非同値なベースラインと比較して,データ効率と分解性が向上することを示す。

Subsampling is used in convolutional neural networks (CNNs) in the form of pooling or strided convolutions, to reduce the spatial dimensions of feature maps and to allow the receptive fields to grow exponentially with depth. However, it is known that such subsampling operations are not translation equivariant, unlike convolutions that are translation equivariant. Here, we first introduce translation equivariant subsampling/upsampli ng layers that can be used to construct exact translation equivariant CNNs. We then generalise these layers beyond translations to general groups, thus proposing group equivariant subsampling/upsampli ng. We use these layers to construct group equivariant autoencoders (GAEs) that allow us to learn low-dimensional equivariant representations. We empirically verify on images that the representations are indeed equivariant to input translations and rotations, and thus generalise well to unseen positions and orientations. We further use GAEs in models that learn object-centric representations on multi-object datasets, and show improved data efficiency and decomposition compared to non-equivariant baselines.
公開日: Thu, 10 Jun 2021 16:14:00 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
1 2 0 2 n u J 1 2 0 2 n u J 0.85
0 1 ] G L . 0 1 ] G L。 0.81
s c [ 1 v 6 8 8 5 0 sc [ 1 v 6 8 8 5 0 0.68
. 6 0 1 2 : v i X r a . 6 0 1 2 : v i X r a 0.85
Group Equivariant Subsampling 群同変部分サンプリング 0.58
Jin Xu1∗ Hyunjik Kim2 Xu1∗ ヒョンジク・キム2 0.65
Tom Rainforth1 Tom Rainforth1 0.88
Yee Whye Teh1,2 よーし なぜ テフ1,2 0.43
1 Department of Statistics, University of Oxford, UK. オックスフォード大学統計学部 (university of oxford) - イギリスのオックスフォード大学。 0.53
2 DeepMind, UK. イギリス、DeepMind。 0.52
Abstract Subsampling is used in convolutional neural networks (CNNs) in the form of pooling or strided convolutions, to reduce the spatial dimensions of feature maps and to allow the receptive fields to grow exponentially with depth. 概要 サブサンプリングは、プールやストライド畳み込みの形で畳み込みニューラルネットワーク(CNN)で使われ、特徴写像の空間次元を小さくし、受容野が深さとともに指数関数的に成長できるようにする。 0.56
However, it is known that such subsampling operations are not translation equivariant, unlike convolutions that are translation equivariant. しかし、そのような部分サンプリング操作は、変換同変である畳み込みとは異なり、翻訳同変ではないことが知られている。 0.50
Here, we first introduce translation equivariant subsampling/upsampli ng layers that can be used to construct exact translation equivariant CNNs. ここではまず,完全翻訳同変cnnの構築に使用できる翻訳同変部分サンプリング/アップサンプリング層について紹介する。 0.53
We then generalise these layers beyond translations to general groups, thus proposing group equivariant subsampling/upsampli ng. 次にこれらの層を一般群への変換を超えて一般化し、したがって群同変部分サンプリング/アップサンプリングを提案する。 0.43
We use these layers to construct group equivariant autoencoders (GAEs) that allow us to learn low-dimensional equivariant representations. これらの層を用いて群同変オートエンコーダ(GAE)を構築し、低次元同変表現を学習する。 0.58
We empirically verify on images that the representations are indeed equivariant to input translations and rotations, and thus generalise well to unseen positions and orientations. 我々は、表現が入力の翻訳と回転と実際に同値であることのイメージを経験的に検証し、その結果、見つからない位置と向きによく一般化する。 0.58
We further use GAEs in models that learn object-centric representations on multiobject datasets, and show improved data efficiency and decomposition compared to non-equivariant baselines. さらに,マルチオブジェクトデータセット上でオブジェクト中心表現を学習するモデルにおいて,gaesを用いて,非同値なベースラインと比較して,データ効率と分解性が向上することを示す。 0.61
1 Introduction Convolutional Neural Networks (CNNs) are known to be more data efficient and show better generalisation on perceptual tasks than fully-connected networks, due to translation equivariance encoded in the convolutions: when the input image/feature map is translated, the output feature map also translates by the same amount. 1 はじめに 畳み込みニューラルネットワーク(CNN)は、コンボリューションに符号化された翻訳等価性(入力画像/特徴マップが翻訳されると、出力特徴写像も同じ量で変換される)により、完全連結ネットワークよりも知覚タスクのより効率的な一般化を示すことが知られている。 0.72
In typical CNNs, convolutions are used in conjunction with subsampling operations, in the form of pooling or strided convolutions, to reduce the spatial dimensions of feature maps and to allow receptive field to grow exponentially with depth. 典型的なcnnでは、畳み込みはプールやストレート畳み込みという形でサブサンプリング操作と連動して使われ、特徴写像の空間次元を減少させ、受容場を深さで指数関数的に成長させる。 0.61
Subsampling/upsampli ng operations are especially necessary for convolutional autoencoders (ConvAEs) [34] because they allow efficient dimensionality reduction. 畳み込みオートエンコーダ(convaes) [34] では、効率的な次元の削減を可能にするため、サブサンプリング/アップサンプリング操作が特に必要となる。 0.52
However, it is known that subsampling operations implicit in strided convolutions or pooling layers are not translation equivariant [51], hence CNNs that use these components are also not translation invariant. しかし、ストレート畳み込みやプーリング層で暗黙のサブサンプリング操作は翻訳同変 [51] ではないことが知られているので、これらのコンポーネントを使用するcnnも変換不変ではない。 0.64
Therefore such CNNs and ConvAEs are not guaranteed to generalise to arbitrarily translated inputs despite their convolutional layers being translation equivariant. したがって、このようなcnnとconvaesは、畳み込み層が同値であるにもかかわらず、任意に翻訳された入力に一般化することは保証されていない。
訳抜け防止モード: そのため、CNNやConvAEは保証されない。 畳み込み層が同変であるにもかかわらず、任意の翻訳入力を一般化する。
0.51
Previous work, such as [3, 51], has investigated how to enforce translation invariance on CNNs, but does not study equivariance with respect to symmetries beyond translations, such as rotations or reflections. 3, 51]のような以前の研究は、cnn上での翻訳不変性(translation invariance)を強制する方法を調査しているが、回転や反射など、翻訳以外の対称性に関して同値性は研究していない。 0.63
In this work, we first describe subsampling/upsampli ng operations that preserve exact translation equivariance. 本稿では,まず,完全翻訳等価性を保持するサブサンプリング/アップサンプリング操作について述べる。 0.47
The main idea is to sample feature maps on an input-dependent grid rather than a fixed one as in pooling or strided convolutions, and the grid is chosen according to a sampling index computed from the inputs (see Figure 1). 主なアイデアは、プーリングやストレート畳み込みのように固定されたグリッドではなく、入力依存グリッド上でフィーチャーマップをサンプリングすることであり、グリッドは入力から計算されたサンプリングインデックスに従って選択される(図1参照)。 0.69
Simply replacing the subsampling/upsampli ng in standard CNNs with such translation equivariant subsampling/upsampli ng operations leads to CNNs and transposed CNNs that can map between spatial inputs and low-dimensional representations in a translation equivariant manner. 標準CNNのサブサンプリング/アップサンプリングをそのような変換同変サブサンプリング/アップサンプリング操作に置き換えれば、空間入力と低次元表現を変換同変でマッピングできるCNNと変換CNNに繋がる。
訳抜け防止モード: 標準CNNのサブサンプリング/アップサンプリングをそのような翻訳同変サブサンプリング/アップサンプリング操作に置き換える CNNとCNNに変換され 空間入力と低次元表現を同変的にマッピングすることができる。
0.64
∗Corresponding author: <jin.xu@stats.ox.ac.u k> ∗対応著者:<jin.xu@stats.ox.ac.u k> 0.51
英語(論文から抽出)日本語訳スコア
Figure 1: Equivariant subsampling on 1D feature maps with a scale factor c = 2. 図1: スケール係数 c = 2 の 1D 特徴写像上の同変部分サンプリング。 0.75
The input feature map has length 8, and initially we sample from odd positions determined by Equation (1) (top). 入力特徴写像は長さ8で、最初は方程式(1)(トップ)で決定された奇位置からサンプリングする。 0.74
When the original feature map is shifted to the right by 1 unit (bottom left), the sampling index becomes 1, so we instead sample from even positions. 元のフィーチャーマップを右に1単位(ボトム左)にシフトすると、サンプリングインデックスは1になるので、偶数位置からサンプリングします。 0.66
When the feature map is shifted to the right by 2 units (bottom right), we again sample from odd positions, but the outputs have been shifted to the right by 1 unit correspondingly. 特徴写像を右に2つの単位(ボトム右)でシフトすると、奇数位置から再びサンプルを採取するが、出力は1単位ずつ右にシフトする。
訳抜け防止モード: 特徴マップが右に2つの単位(右下)にシフトされた場合 奇妙な位置から サンプルを採取しましたが 出力は、対応する1ユニットずつ右にシフトされる。
0.77
We further generalise the proposed subsampling/upsampli ng operations from translations to arbitrary groups, proposing group equivariant subsampling/upsampli ng. さらに,提案する部分サンプリング/アップサンプリング操作を任意の群への変換から一般化し,グループ同変部分サンプリング/アップサンプリングを提案する。
訳抜け防止モード: さらに、提案された部分サンプリング/アップサンプリング操作を任意の群への変換から一般化する。 proposing group equivariant subsampling / upsampling
0.51
In particular we identify subsampling as mapping features on groups G to features on subgroups K (vice versa for upsampling), and identify the sampling index as a coset in the quotient space G/K. 特に,群 g 上の部分群 k 上の特徴への写像特徴として部分サンプリングを同定し,そのサンプリング指標を商空間 g/k におけるコセットとして同定する。 0.76
See Appendix A for a primer on group theory that is needed to describe this generalisation. この一般化を記述するのに必要な群論の補題 a を参照。 0.62
We note that group equivariant subsampling is different to coset pooling introduced in [5], which instead gives features on the quotient space G/K, and discuss differences in detail in Section 4. 群同変部分サンプリングは[5]で導入されたコセットプールとは違い、代わりに商空間 G/K 上の特徴を与え、セクション4で詳細の違いについて議論する。 0.63
Similar to the translation equivariant subsampling/upsampli ng, group equivariant subsampling/upsampli ng can be used with group equivariant convolutions to produce group equivariant CNNs. 変換同変部分サンプリング/アップサンプリングと同様に、群同変部分サンプリング/アップサンプリングは群同変畳み込みを用いて群同変cnnを生成することができる。 0.44
Using such group equvariant CNNs we can construct group equivariant autoencoders (GAEs) that separate representations into an invariant part and an equivariant part. そのような群 equvariant cnn を用いて、表現を不変部分と同値部分に分割する群同変オートエンコーダ(gae)を構築することができる。 0.66
While there is a growing body of literature on group equivariant CNNs (G-CNNs) [5, 10, 41, 44, 46– 48], such equivariant convolutions usually preserve the spatial dimensions of the inputs (or lift them to even higher dimensions) until the final invariant pooling layer. 群同変 cnn (g-cnns) [5, 10, 41, 44, 46–48] に関する文献が増えているが、そのような同変畳み込みは通常、入力の空間的次元(あるいはより高次元まで)を最終不変プーリング層まで保持する。 0.67
There is a lack of exploration on how to reduce the spatial dimensions of such feature maps while preserving exact equivariance, to produce low-dimensional equivariant representations. このような特徴写像の空間次元を減らし、正確な等式を保ちながら、低次元同変表現を生成する方法については、探索の欠如がある。 0.57
This work attempts to fill in this gap. この仕事はこのギャップを埋めようとする。 0.65
Such lowdimensional equivariant representations can be employed in representation learning methods, allowing various advantages such as interpretability, out-of-distribution generalisation, and better sample complexity. このような低次元同変表現は表現学習法に応用でき、解釈可能性、分布外一般化、サンプル複雑性の改善など様々な利点がある。 0.66
When using such learned representations in downstream tasks such as abstract reasoning, reinforcement learning, video modelling, scene understanding, it is especially important for representations to be equivariant rather than invariant in these tasks, because transformations and how they act on feature spaces are critical information, rather than nuisance as in image classification problems. 抽象推論、強化学習、ビデオモデリング、シーン理解といった下流タスクでそのような学習表現を使用する場合、画像分類問題のようなニュアンスではなく、変換と機能空間への作用が重要な情報であるため、これらのタスクにおいて不変ではなく同変であることは特に重要である。
訳抜け防止モード: 抽象的推論のような下流タスクでそのような学習された表現を使用するとき 強化学習 ビデオモデリング シーン理解は特に重要です これらのタスクにおいて不変ではなく同変である表現 変化と特徴空間の働きは 重要な情報だからです 画像分類の問題のように 迷惑ではなく
0.84
In summary, we make the following contributions: (i) We propose subsampling/upsampli ng operations that preserve translational equivariance. 要約すると、以下の貢献をする: (i) 翻訳の等価性を保ったサブサンプリング/アップサンプリング操作を提案する。 0.57
(ii) We generalise the proposed subsampling/upsampli ng operations to arbitrary symmetry groups. (2) 提案した部分サンプリング/アップサンプリング操作を任意の対称性群に一般化する。 0.52
(iii) We use equivariant subsampling/upsampli ng operations to construct GAEs that gives low-dimensional equivariant representations. 3) 低次元同変表現を与えるGAEを構成するために同変部分サンプリング/アップサンプリング演算を用いる。 0.49
(iv) We empirically show that representations learned by GAEs enjoys many advantages such as interpretability, out-of-distribution generalisation, and better sample complexity. (4)GAEが学習した表現には,解釈可能性,分布外一般化,サンプル複雑性の改善など,多くの利点があることを示す。 0.67
2 Equivariant Subsampling and Upsampling 2 等価部分サンプリングとアップサンプリング 0.62
2.1 Translation Equivariant Subsampling for CNNs 2.1 CNNの翻訳等価部分サンプリング 0.67
In this section we describe the proposed translation equivariant subsampling scheme for feature maps in standard CNNs. 本稿では,標準CNNにおける特徴写像の変換同変サブサンプリング方式について述べる。 0.59
Later in Section 2.2, we describe how this can be generalised to group equivariant subsampling for feature maps on arbitrary groups. 後述する2.2節では、任意の群上の特徴写像に対する同変部分サンプリングを一般化する方法について述べる。 0.54
Standard subsampling Feature maps in CNNs can be seen as functions defined on the integer grid, e g Z for 1D feature maps, and Z2 for 2D. CNNの標準的なサブサンプリング フィーチャーマップは、整数グリッド上で定義された関数、1Dのフィーチャーマップでeg Z、2DでZ2と見ることができる。
訳抜け防止モード: 標準サブサンプリング CNNのフィーチャーマップは整数グリッド上で定義された関数として見ることができる。 e g Z for 1D feature map , Z2 for 2D。
0.75
Hence we represent feature maps as f : Z → Rd, where d is the number of feature map channels. したがって、特徴写像を f : Z → Rd と表現し、d は特徴写像チャネルの数である。 0.66
For simplicity, we start with 1D and move on to the 2D case. シンプルさのために、1Dから始めて、2Dケースに移動します。 0.67
Typically, subsampling in CNNs is implemented as either strided convolution or (max) 通常、CNNのサブサンプリングは、ストライドされた畳み込みまたは(max)として実装される。 0.52
2 2 0.85
英語(論文から抽出)日本語訳スコア
pooling, and they can be decomposed as プールを作り 分解して 0.28
CONVc MAXPOOLc CONVC MAXPOOLC 0.68
k = SUBSAMPLINGc ◦ CONV1 k = SUBSAMPLINGc ◦ MAXPOOL1 k = SUBSAMPlingc > CONV1 k = SUBSAMPlingc > MAXPOOL1 0.80
k where subscripts denote kernel sizes and superscripts indicate strides. k サブスクリプトはカーネルのサイズを表し、スーパースクリプトはstridesを示す。 0.63
c ∈ N is the scale factor for SUBSAMPLING, and this operation simply restricts the input domain of the feature map from Z to cZ, without changing the corresponding function values. c ∈ N は SUBSAMPling のスケールファクタであり、この演算は、対応する関数値を変更することなく、特徴写像の入力領域を Z から cZ に制限する。 0.75
k Translation equivariant subsampling In our equivariant subsampling scheme, we instead restrict the input domain to cZ + i, the integers ≡ i mod c, where i is a sampling index determined by the input feature map. k 等価部分サンプリングスキームにおける変換同変部分サンプリングでは、代わりに入力領域を cz + i に制限します。
訳抜け防止モード: k 等価部分サンプリングスキームにおける変換同変部分サンプリングは、代わりに入力領域を cz + i に制限する。 整数は c であり、ここでは iは、入力特徴マップによって決定されるサンプリングインデックスである。
0.72
The key idea is to choose i such that it is shifts by t(modc) when the input is translated by t, to ensure that the same features are subsampled upon translation. キーとなるアイデアは、入力がtで翻訳されたときにt(modc)でシフトするようにiを選択し、同じ機能が翻訳時にサブサンプリングされるようにすることである。 0.66
Let i be given by the mapping Φc : IZ → Z/cZ. IZ → Z/cZ という写像で与えられる。 0.61
IZ denotes the space of vector functions on Z and Z/cZ is the space of remainders upon division by c. IZ は Z 上のベクトル関数の空間を表し、Z/cZ は c による除算による剰余空間である。 0.83
(1) where (cid:107) · (cid:107)1 denotes L1-norm (other choices of norm are equally valid). 1) (cid:107) · (cid:107)1 は L1-ノルムを表す(他のノルムの選択は等しく有効である)。 0.58
Other choices for Φc are equally valid as long as they satisfy translation equivariance, ensuring that the same features are subsampled upon translation of the input: 他の選択は、翻訳等価性を満たす限り等しく有効であり、入力の翻訳によって同じ特徴がサブサンプリングされることを保証する。 0.73
i = Φc(f ) = mod(arg max x∈Z i = φc(f ) = mod(arg max xservletz) 0.81
(cid:107)f (x)(cid:107)1, c) (cid:107)f (x)(cid:107)1, c) 0.93
Φc(f (· − t)) = mod(Φc(f ) + t, c). φc(f (· − t)) = mod(φc(f ) + t, c) である。 0.88
(2) Note that this holds for Equation (1) provided the argmax is unique, which we assume for now (see Appendix B.1 for a discussion of the non-unique case). 2) 式 (1) が argmax が一意であるならば,これが成り立つことに留意すべきである(一般の場合の議論については Appendix B.1 を参照)。 0.70
We can decompose the subsampled feature map defined on cZ + i into its values and the offset index i, expressing it as [fb, i] ∈ (IcZ, Z/cZ), where fb is the translated output feature map such that fb(cx) = f (cx + i) for x ∈ Z. x ∈ Z に対して fb(cx) = f (cx + i) となるような変換された出力特徴写像を fb とすると、cZ + i 上で定義される部分サンプリングされた特徴写像とその値とオフセット指数 i を [fb, i] ∈ (IcZ, Z/cZ) として分解することができる。 0.80
The subsampling operation described above, which maps from IZ to (IcZ, Z/cZ) is translation equivariant: when the feature map f is translated to the right by t ∈ Z, one can verify that fb will be translated to the right by c(cid:98) i+t c (cid:99), and the sampling index for the translated inputs would become mod(i + t, c). IZ から (IcZ, Z/cZ) への写像である部分サンプリング演算は変換同変であり、特徴写像 f が t ∈ Z によって右に変換されたとき、fb が c(cid:98) i+t c (cid:99) によって右に変換され、翻訳された入力のサンプリング指標が mod(i + t, c) となることを検証できる。 0.77
We provide an illustration for c = 2 in Figure 1, and describe formal statements and proofs later for the general cases in Section 2.2. 図1では c = 2 の例を示し、2.2 では一般の場合の形式的記述と証明を後で記述する。 0.75
Multi-layer case For the subsequent layers, the feature map fb is fed into the next convolution, and the sampling index i is appended to a list of outputs. マルチレイヤケース その後のレイヤでは、フィーチャーマップfbが次の畳み込みに入力され、サンプリングインデックスiが出力のリストに追加される。 0.68
When the above translation equivariant subsampling scheme is interleaved with convolutions in this way, we obtain an exactly translation equivariant CNN, where each subsampling layer with scale factor ck produces a sampling index ik ∈ Z/ckZ. このように、上記の変換同変部分サンプリングスキームを畳み込みでインターリーブすると、正確に変換同変 CNN が得られ、スケール係数 ck を持つ各部分サンプリング層がサンプリング指数 ik ∈ Z/ckZ を生成する。 0.63
Hence the equivariant representation output by the CNN with L subsampling layers is a final feature map fL and a L-tuple of sampling indices (i1, . したがって、CNNがLサブサンプリング層で出力する同変表現は、最終的な特徴写像 fL とサンプリング指標の L-タプル (i1, ) である。 0.66
. . , iL). This tuple can in fact be expressed equivalently as a single integer by treating the tuple as mixed radix notation and converting to decimal notation. . . 、iL)。 このタプルは実際には、タプルを混合基数記法として扱い、十進記法に変換することで、単一の整数として等価に表現することができる。
訳抜け防止モード: . . 、iL)。 このタプルは実際には1つの整数で等価に表現できる。 タプルを混合基数表記として扱い、十進表記に変換する。
0.75
We provide details of this multi-layer case in Appendix B.2, including a rigorous formulation and its equivariance properties. 我々は、厳密な定式化と同値性を含む、この多層ケースの詳細を Appendix B.2 で提供する。 0.60
Translation equivariant upsampling As a counterpart to subsampling, upsampling operations increase the spatial dimensions of feature maps. 変換同変アップサンプリング サブサンプリングに対抗して、アップサンプリング操作は特徴写像の空間次元を増加させる。 0.52
We propose an equivariant upsampling operation that takes in a feature map f ∈ IcZ and a sampling index i ∈ Z/cZ, and outputs a feature map fu ∈ IZ, where we set fu(cx + i) = f (cx) and 0 everywhere else. 特徴写像 f ∈ IcZ とサンプリング指標 i ∈ Z/cZ を取り込み、特徴写像 fu ∈ IZ を出力し、そこで fu(cx + i) = f (cx) と 0 を至る所で設定する。
訳抜け防止モード: 特徴写像 f ∈ IcZ を持つ同変アップサンプリング演算を提案する。 そしてサンプリングインデックス i ∈ Z / cZ を出力し、特徴写像 fu ∈ IZ を出力する。 ここで fu(cx + i ) = f(cx ) と 0 を他のどこでも設定する。
0.82
This works well enough in practice, although in conventional upsampling the output feature map is often a smooth interpolation of the input feature map. これは実際には十分機能するが、従来のアップサンプリングでは出力特徴マップは入力特徴マップのスムーズな補間であることが多い。 0.78
To achieve this with equivariant upsampling, we can additionally apply average pooling with stride 1 and kernel size > 1. これを同変アップサンプリングで実現するために、ストライド1とカーネルサイズ > 1 で平均プールを適用できる。 0.71
2D Translation equivariant subsampling When feature maps are 2D, they can be represented as functions on Z2. 2d 変換同変部分サンプリング 特徴写像が 2d の場合、それらは z2 上の関数として表現できる。 0.63
The sampling index becomes a 2-element tuple given by: サンプリングインデックスは以下の2要素タプルになる。 0.73
(x∗, y∗) = arg max(x,y)∈Z2(cid:107)f (x)(cid:107)1 (i, j) = (mod(x∗, c), mod(y∗, c)) (x∗, y∗) = arg max(x,y)⋅Z2(cid:107)f (x)(cid:107)1 (i, j) = (mod(x∗, c), mod(y∗, c)) 0.90
and we subsample feature maps by restricting the input domain to cZ2 + (i, j). 入力領域を cZ2 + (i, j) に制限することで特徴写像をサブサンプル化する。 0.68
The multi-layer construction and upsampling is analogous to the 1D-case. 多層構造とアップサンプリングは1Dケースに類似している。 0.67
3 3 0.85
英語(論文から抽出)日本語訳スコア
2.2 Group Equivariant Subsampling and Upsampling 2.2 Group Equivariant Subsampling and Upsampling 0.92
In this section, we propose group equivariant subsampling by starting off with the 1D-translation case in Section 2.1, and provide intuition for how each component of this special case generalises to arbitrary discrete groups G. We then proceed to mathematically formulate group equivariant subsampling, and prove that it is indeed G-equivariant. 本稿では,第2.1節の1D-翻訳事件から始めることで群同変部分サンプリングを提案し,この特別の場合の各成分が任意の離散群 G にどのように一般化するかの直観を与える。 0.67
Feature maps on groups First recall that the feature maps for the 1D-translation case were defined as functions on Z, or f ∈ IZ for short. 群上の特徴写像 1D-翻訳の場合の特徴写像は、略して Z 上の函数 f ∈ IZ として定義される。
訳抜け防止モード: グループ上の特徴写像 まず 1D - 翻訳ケースの特徴写像が Z 上の関数として定義されたことを思い出す。 あるいは、f ∈ IZ for short .
0.71
To extend this to the general case, we consider feature maps f as functions on a group G, i.e. これを一般の場合にまで拡張するために、特徴写像 f を群 G, すなわち群 G 上の函数と考える。 0.72
f ∈ IG = {f : G → V }2 where V is a vector space, as is done in e g group equivariant CNNs (G-CNNs) [5]. f ∈ IG = {f : G → V }2 ここで V はベクトル空間であり、eg群同変 CNNs (G-CNNs) [5] でなされる。 0.84
Note that translating feature maps f on Z by displacement u is effectively defining a new feature map f(cid:48)(·) = f (· − u). 変位 u による z 上の特徴写像 f の変換は、新しい特徴写像 f(cid:48)(·) = f (· − u) を効果的に定義することに注目しよう。 0.65
In the general case, we say that the group action on the feature space is given by 一般の場合、特徴空間上の群作用が与えられる。 0.42
[π(u)f ](g) = f (u−1g) [π(u)f ](g) = f(u−1g) 0.96
(3) where π is a group representation describing how u ∈ G acts on the feature space. (3) π は u ∈ G が特徴空間上でどのように作用するかを記述する群表現である。 0.80
Recap: translation equivariant subsampling Recall that standard subsampling that occurs in pooling or strided convolutions for 1D translations amounts to restricting the domain of the feature map from Z to cZ, whereas equivariant subsampling also produces a sampling index i ∈ Z/cZ, an integer mod c, and that this is equivalent to restricting the input domain to cZ + i. i is given by the translation equivariant mapping Φc : IZ → Z/cZ. 言い換えると、 1D 翻訳のプールやストリップされた畳み込みで起こる標準のサブサンプリングは、特徴写像の領域を Z から cZ に制限するのに対して、同変のサブサンプリングは、サンプリングインデックス i ∈ Z/cZ、整数 mod c も生成し、これは入力ドメインを cZ + i に制限するのと同値である。
訳抜け防止モード: recap : translation equivariant subsampling その標準サブサンプリングを思い出す 1d変換のためのプールまたはストレート畳み込みで起こる 特徴写像の領域を z から cz に制限する量。 等変部分サンプリングは、整数 mod c であるサンプリング指数 i ∈ z / cz も生成する。 これは入力領域を cz + i に制限することと同値であり、i は変換同変写像 φc : iz → z / cz によって与えられる。
0.64
We can translate the input domain back to cZ, and represent the output of subsampling as [fb, i] ∈ (IcZ, Z/cZ), where fb is the translated output feature map and fb(cx) = f (cx + i) for x ∈ Z. 入力領域を cZ に変換し、サブサンプリングの出力を [fb, i] ∈ (IcZ, Z/cZ) と表すことができ、ここで fb は変換出力特徴写像、fb(cx) = f (cx + i) は x ∈ Z である。 0.81
Group equivariant subsampling Similarly in the general case, for a feature map f ∈ IG, standard subsampling can be seen as restricting the domain from the group G to a subgroup K, whereas equivariant subsampling additionally produces a sampling index pK ∈ G/K, where the quotient space G/K = {gK : g ∈ G} is the set of (left) cosets of K in G. Note that we have rewritten i as p to distinguish between the 1D translation case and the general group case. 群同変部分サンプリング(group equivariant subsampling) 同様に、一般の場合、特徴写像 f ∈ ig に対して、標準部分サンプリング(standard subsampling)は群 g から部分群 k への領域の制限と見なすことができるが、同変部分サンプリング(equivariant subsampling)はさらに、商空間 g/k = {gk : g ∈ g} が g における k の(左)剰余集合の集合であるようなサンプリング指標 pk ∈ g/k を生成する。 0.78
This is equivalent to restricting the f to the coset pK. これは f を余集合 pK に制限することと同値である。 0.70
The choice of the coset pK is given by equivariant map Φ : IG → G/K (the action of G on G/K is given by u(gK) = (ug)K for u, g ∈ G), such that pK = Φ(f ). 余集合 pK の選択は、同変写像 s : IG → G/K で与えられる(G/K 上の G の作用は u(gK) = (ug)K for u, g ∈ G) によって与えられる)。 0.77
This restriction of f to pK can also be thought of as having an output feature map fb on K and choosing a coset representative element ¯p ∈ pK, such that fb(k) = f (¯pk). この f から pK への制限は、K 上の出力特徴写像 fb を持ち、fb(k) = f ( >pk) となるような余集合代表元 >p ∈ pK を選択することも考えられる。 0.81
This choice of coset representative is described by a function s : G/K → G, such that ¯p = s(pK). このコセット代表の選択は関数 s : g/k → g によって記述され、これは s(pk) である。 0.79
The function s is called a section and should satisfy s(pK)K = pK. 函数 s は区間と呼ばれ、s(pK)K = pK を満たす。 0.64
Now let us formulate subsampling and upsampling operations Sb↓G K mathematically and prove its G-equivariance. さて、数学的に部分サンプリングおよびアップサンプリング操作を定式化し、そのG-等分散を証明しよう。 0.48
Let IK = {f : K → V (cid:48)} be the space of feature map on K. Sb↓G K takes in a feature map f ∈ IG and produces a feature map fb ∈ IK and a coset in G/K. IK = {f : K → V (cid:48)} を K 上の特徴写像の空間とする。
訳抜け防止モード: IK = { f : K → V ( cid:48 ) } を K 上の特徴写像の空間とする。 特徴写像 fb ∈ IK と余集合を G / K で生成する。
0.60
In reverse, the upsampling operation Su↑G K takes in a feature map in IK, a coset in G/K, and produces a feature map in IG. 逆に、アップサンプリング操作sugg kは、g/kのコセットであるikのフィーチャーマップを取り込み、igのフィーチャーマップを生成する。
訳抜け防止モード: 逆に、アップサンプリング演算(upsampling operation)のスーG K は IK 内の特徴写像、G / K の余集合を取る。 IGでフィーチャーマップを生成する。
0.64
We use a section s : G/K → G to represent a coset with a representative element in G, and point out that equivariance holds for any choice of s. Formally, given an equivariant map Φ : IG → G/K (we will discuss how to construct such a map in Section 2.3), and a fixed section s : G/K → G such that ¯p = s(pK), the subsampling operation Sb↓G G 内の代表元との余集合を表すためにセクション s : G/K → G を使い、任意の s の選択に対して同値が成り立つことを指摘します。
訳抜け防止モード: セクション s: G / K → G を用いる。 G 内の代表元との余集合を表現する s.の任意の選択に対して等式が成り立つことを指摘します 等変写像が与えられる: IG → G / K ( 我々は、セクション2.3でそのような写像を構築する方法について議論する。 そして、固定区間 s : G / K → G {\displaystyle s} が s(pK ) となる。 サブサンプリング操作 Sb'G
0.79
K : IG → IK × G/K is defined as: K : IG → IK × G/K は次のように定義される。 0.69
K and Su↑G pK = Φ(f ), [fb, pK] = Sb↓G K と Su'G pK = s(f ), [fb, pK] = Sb\G 0.79
K(f ; Φ), K(f; s) である。 0.76
fb(k) = f (¯pk) for k ∈ K k ∈ K に対する fb(k) = f( spk) 0.86
while the upsampling operation Su↑G アップサンプリング操作のSUは 0.50
K : IK × G/K → IG is defined as: K : IK × G/K → IG は次のように定義される。 0.69
fu(g) = f (¯p−1g) if g ∈ K else 0 g ∈ K が他の 0 であるとき、fu(g) = f( >p−1g) 0.71
fu = Su↑G K(f, pK). フー=スグ K(f, pK)。 0.64
(4) (5) 2This is not to be confused with the space of Mackey functions in, e g , [9], and rather it is the space of (4) (5) 2 これは Mackey 関数 in, e g , [9] の空間と混同されるのではなく、むしろその空間である。 0.84
unconstrained functions on G. g 上の無拘束関数。 0.73
4 4 0.85
英語(論文から抽出)日本語訳スコア
To make the output of the upsampling dense rather than sparse, one can apply arbitrary equivariant smoothing functions such as average pooling with stride 1 and kernel size > 1, to compensate for the fact that we extend with 0s rather than values close to their neighbours. スパースよりもアップサンプリングの出力を密にするために、ストライド 1 での平均プーリングや核サイズ > 1 のような任意の同変滑らか化関数を適用して、近傍の値よりも 0 で拡張するという事実を補うことができる。 0.73
In practice, we observe that upsampling without any smoothing function works well enough. 実際、スムージング機能なしのアップサンプリングは十分に機能していると観察する。 0.60
The statement on the equivariance of Sb↓G space IK × G/K, which we denote as π(cid:48). Sb\G 空間 IK × G/K の同値性に関するステートメントは π (cid:48) と表される。 0.70
For any u ∈ G, 任意の u ∈ g に対して 0.74
K requires we specify the action of G on the K は G の作用を指定する必要がある。 0.77
K and Su↑G p(cid:48)K = upK, K と Su'G p(cid:48)K = upK, 0.83
f(cid:48) b = π(¯p(cid:48)−1u¯p)fb f(cid:48) b = π( ~p(cid:48)−1u 〜p)fb 0.74
[f(cid:48) b, p(cid:48)K] = π(cid:48)(u)[fb, pK] [f(cid:48) b, p(cid:48)K] = π(cid:48)(u)[fb, pK] 0.99
(6) Lemma 2.1. π(cid:48) defines a valid group action of G on the space IK × G/K. (6) Lemma 2.1. π(cid:48) は空間 IK × G/K 上の G の有効群作用を定義する。 0.80
We can now state the following equivariance property (See Appendix D for a proof): Proposition 2.2. 現在、以下の同値性を記述することができる(証明についてはSee Appendix Dを参照)。 0.57
If the action of group G on the space IG and IK × G/K are specified by π, π(cid:48) (as defined in Equations (3) and (6)), and Φ : IG → G/K is an equivariant map, then the operations Sb↓G K as defined in Equations (4) and (5) are equivariant maps between IG and IK × G/K. 空間 IG と IK × G/K 上の群 G の作用が π, π(cid:48) (Equations (3) と (6) で定義される) で指定され、かつ π : IG → G/K が同変写像であれば、Equations (4) と (5) で定義される演算 Sb\G K は IG と IK × G/K の間の同変写像である。 0.87
K and Su↑G 2.3 Constructing Φ We use the following simple construction of the equivariant mapping Φ : IG → G/K for subsampling/upsampli ng operations, although any equivariant mapping would suffice. K と Su'G 2.3 構成 φ は以下の簡単な同変写像 φ : ig → g/k を部分サンプリング/アップサンプリング演算に使用するが、任意の同変写像は十分である。
訳抜け防止モード: K と Su'G 2.3 構成 φ: ig → g / k を部分サンプリング/アップサンプリング演算に使用する。 しかし、任意の同変写像は十分である。
0.65
For an input feature map f ∈ IG, we define 入力特徴写像 f ∈ IG に対して、我々は定義する。 0.70
(7) Provided that the argmax is unique, it is easy to show that (up) · K = Φ(π(u)f ), hence Φ is equivariant. (7) アルグマックスが一意であることから、(up) · k = φ(π(u)f) であることを示すことは容易である。
訳抜け防止モード: (7) argmax が一意であるなら、簡単である (up ) · k = φ(π(u)f ) であることを示すため、 φ は同値である。
0.70
In practice one can insert arbitrary equivariant layers to f before and after we take the norm (cid:107) · (cid:107)1 to avoid a non-unique argmax (see Appendix E). 実際には、標準 (cid:107) · (cid:107)1 の前後に任意の同変層を f に挿入して、非特異な argmax を避けることができる(Appendix E を参照)。 0.68
In theory, there could exist cases where the argmax is always non-unique. 理論上、argmax が常にユニクでない場合もある。 0.67
We provide a more complex construction of Φ that deals with this case in Appendix B.1. 我々は、このケースを Appendix B.1 で扱うようなより複雑な構成を提供する。 0.75
pK = Φ(f ) := (arg max g∈G pK = s(f ) := (arg max g∂G 0.86
(cid:107)f (g)(cid:107)1)K (cid:107)f (g)(cid:107)1)K 0.92
3 Application: Group Equivariant Autoencoders 3 応用:グループ同変オートエンコーダ 0.71
Group equivariant autoencoders (GAEs) are composed of alternating G-convolutional layers and equivariant subsampling/upsampli ng operations for the encoder/decoder. 群同変オートエンコーダ(GAE)は、G-畳み込み層と、エンコーダ/デコーダの同変サブサンプリング/アップサンプリング演算からなる。 0.52
One important property of GAEs is that the final subsampling layer of the encoder subsamples to a feature map defined on the trivial group {e}, outputting a vector (instead of a feature map) that is invariant. GAEsの重要な性質の1つは、エンコーダの最終的な部分サンプリング層が自明群 {e} 上で定義される特徴写像に結びつき、不変なベクトル(特徴写像の代わりに)を出力することである。 0.73
For the 1D-translation case, suppose the input to the final subsampling layer is a feature map f defined on Z. 1D-翻訳の場合、最終部分サンプリング層への入力が Z 上で定義される特徴写像 f であると仮定する。 0.67
Then the final layer produces an invariant vector fb(0) = f (iL) where iL = arg maxx∈Z (cid:107)f (x)(cid:107)1. そして、最終層は不変ベクトル fb(0) = f(iL) を生成し、そこで iL = arg maxx⋅Z (cid:107)f (x)(cid:107)1 となる。 0.77
Note that there is no scale factor cL here. ここではスケール係数 cL は存在しないことに注意。 0.72
Intuitively we can think of this as setting the scale factor cL = ∞. 直観的には、これをスケール係数 cL = ∞ の設定と考えることができる。 0.73
Hence the encoder of the GAE outputs a representation that is disentangled into an invariant part zinv = fb(0) (the vector output by the final subsampling layer) and an equivariant part zeq = (i1, ..., iL). したがって、gaeのエンコーダは、不変部分zinv = fb(0)(最終部分サンプリング層によって出力されるベクトル)と同値部分zeq = (i1, ..., il)に逆エンタングルされる表現を出力する。
訳抜け防止モード: 従って、GAEのエンコーダは、不変部分 zinv = fb(0) に切り離された表現を出力する(最終的なサブサンプリング層によるベクトル出力)。 そして同変部分 zeq = (i1, ..., iL ) である。
0.79
For the general group case, instead of specifying scale factors as in Section 2.1, we specify a sequence of nested subgroups G = G0 ≥ G1 ≥ ··· ≥ GL = {e}, where the feature map for layer l is defined on subgroup GL. 一般群の場合、第2.1節のようにスケール係数を指定する代わりに、ネストした部分群の列 G = G0 ≥ G1 ≥ ···· ≥ GL = {e} を指定する。
訳抜け防止モード: 一般群の場合、第2.1節のようにスケール係数を指定する代わりに、 ネストした部分群の列 G = G0 ≥ G1 ≥ · · · ≥ GL = { e } を指定する。 ここで、層 l のフィーチャーマップはサブグループ GL で定義される。
0.78
For example, for the p4 group G = Z (cid:111) C4, we can use the following sequence for subsampling: Z (cid:111) C4 ≥ 2Z (cid:111) C4 ≥ 4Z (cid:111) C4 ≥ 8Z (cid:111) C2 ≥ {e}. 例えば、p4群 G = Z (cid:111) C4 ≥ 2Z (cid:111) C4 ≥ 4Z (cid:111) C4 ≥ 8Z (cid:111) C2 ≥ {e} である。 0.74
Note that for the final two layers of this example, we are subsampling translations and rotations jointly. この例の最後の2層については、翻訳と回転を共同でサンプリングしている。 0.71
We lift the input defined on the homogeneous input space to IG (see Appendix A.3 for details on homogeneous spaces and lifting), and treat f0 ∈ IG as inputs to the autoencoders. 等質な入力空間上で定義された入力をIG(同質な空間とリフトの詳細については Appendix A.3 を参照)に上げ、f0 ∈ IG を自己エンコーダへの入力として扱う。 0.68
The group equivariant encoder ENC can be described as follows: 群同変エンコーダ ENC は次のように記述できる。 0.77
(8) where l = 1, . (8) ここで l = 1 である。 0.79
. . , L and G-CNNl(·) denotes G-convolutional layers before the lth subsampling layer. . . , l と g-cnnl(·) は l 番目の部分サンプリング層の前に g-畳み込み層を表す。 0.74
[fl, plGl] = Sb↓Gl−1 [zinv, zeq] = [fL(e), (p1G1, p2G2, . [fl, plGl] = Sb\Gl−1[zinv, zeq] = [fL(e), (p1G1, p2G2, )。 0.82
. . , pLGL)] . . , pLGL)] 0.79
l−1(fl−1); Φl) l−1(fl−1); sl) 0.82
(G-CNNE Gl (G-CNNE) Gl 0.71
5 5 0.85
英語(論文から抽出)日本語訳スコア
The decoder DEC simply goes in the opposite direction, and can be written formally as: デコーダDECは単純に反対方向に進み、次のように書ける。 0.55
fL is defined on GL = {e} and fL(e) = zinv fl−1 = G-CNND fL は GL = {e} と fL(e) = zinv fl−1 = G-CNND で定義される 0.89
l−1(Su↑Gl−1 l−1(Su)Gl−1 0.45
Gl (fl, plGl)) Gl (fl,plGl) 0.70
(9) where l = L, . (9) L = L である。 0.74
. . , 1 and ˆf = f0 gives the final reconstruction. . . , 1 と f = f0 は最終的な再構成を与える。 0.81
Recall from Section 2.1 that the tuple (i1, . セクション2.1からタプル (i1, .) をリコールする。 0.56
. . , iL) can be expressed equivalently as a single integer. . . iL)は1つの整数として等価に表現できる。 0.83
Similarly, the tuple (p1G1, p2G2, . 同様に、タプル (p1G1, p2G2, )。 0.59
. . , pLGL) can be expressed as a single group element in G. We show in Appendix B.2 that the action implicitly defined on the tuple via Equation (6) simplifies elegantly to the left-action on the single group element in G. We now have the following properties for the learned representations (see Appendix D for a proof): Proposition 3.1. . . pLGL) は G の単一群要素として表すことができる。 Appendix B.2 では、方程式 (6) を介してタプル上で暗黙的に定義された作用が G の単一群要素の左作用に優雅に単純化されることを示します。 0.77
When ENC and DEC are given by Equations (8) and (9), and the group actions are specified as in Equation (3) and Equation (6), for any g ∈ G and f ∈ IG, we have ENC と DEC が方程式 (8) と (9) で与えられるとき、群作用は、任意の g ∈ G および f ∈ IG に対して、方程式 (3) および Equation (6) で指定される。 0.84
[zinv, g · zeq] = ENC(π(g)f ) [zinv, g · zeq] = ENC(π(g)f ) 0.85
π(g) ˆf = DEC(zinv, g · zeq) π(g) >f = DEC(zinv, g · zeq) 0.90
4 Related Work Group equivariant neural networks The equivariant subsampling/upsampli ng that we propose deals with feature maps (functions) defined on the space of the group G or its subgroups K, which transform under the regular representation with the group action. 4 関連作業 群同変ニューラルネットワーク 群 G またはその部分群 K の空間上で定義される特徴写像(函数)を扱い、群作用によって正規表現の下で変換する。
訳抜け防止モード: 4 関連作業 群同変ニューラルネットワーク 群 G の空間上で定義される特徴写像(関数)を扱う同変部分サンプリング/アップサンプリングを提案する。 あるいはそのサブグループKは グループアクションで正規表現の下で変換します
0.79
Hence our equivariant subsampling/upsampli ng is compatible with lifting-based group equivariant neural networks defined on discrete groups [5, 22, 37, 38] that define a mapping between feature maps on G. We also discuss the extension of group equivariant subsampling to be compatible with those defined on continuous/Lie groups [1, 6, 14, 16, 24] in Section 6. したがって、同変部分サンプリング/アップサンプリングは、G 上の特徴写像間の写像を定義する離散群 [5, 22, 37, 38] 上で定義されたリフトベース群同変ニューラルネットワークと互換性がある。
訳抜け防止モード: したがって、我々の同変部分サンプリング/アップサンプリングは、G 上の特徴写像間の写像を定義する離散群 [5, 22, 37, 38] 上で定義されるリフトベース群同変ニューラルネットワークと互換性がある。 第6節の6, 14, 16, 24 ]
0.60
This is in contrast to group equivariant neural networks that do not use lifting and use irreducible representations, defining mappings between feature maps on the input space X. これは、リフトや既約表現を使用しない群同変ニューラルネットワークとは対照的であり、入力空間 X 上の特徴写像間の写像を定義する。 0.64
[10, 15, 17, 30, 41, 44, 46–48]. [10, 15, 17, 30, 41, 44, 46–48]. 0.90
Coset pooling In particular, [5] propose coset pooling, which is also a method for equivariant subsampling. 特にコセットプール (coset pooling) では, [5] は同変部分サンプリングの手法でもあるコセットプール (coset pooling) を提案する。 0.55
Here a feature map f on G is mapped onto a feature map Φ(f ) on G/K (as opposed to K, for our equivariant subsampling) as follows: ここで、g 上の特徴写像 f を g/k 上の特徴写像 φ(f ) に写像する(k とは対照的に、同変部分サンプリングに対して)。 0.55
Φ(f )(gK) = POOLk∈Kf (gk) シュ(f )(gK) = POOLK・Kf(gk) 0.79
(10) such that the feature values on the coset gK are pooled. (10)コセットgK上の特徴値がプールされる。 0.66
For the 1D-translation case, where G = Z, K = cZ, this amounts to pooling over every cth pixel, which disrupts the locality of features as opposed to our equivariant subsampling that preserves locality, and hence is more suitable to use with convolutions for translation equivariance. g = z, k = cz の 1d-翻訳の場合、これはすべての cth ピクセルにプールし、局所性を保持する同変部分サンプリングとは対照的に特徴の局所性を乱し、従って変換同値の畳み込みで使うのにより適している。 0.75
See Figure 2 for a visual comparison. 視覚的比較については図2を参照。 0.73
As such, the p4-CNNs in [5] use standard max pooling with stride=2 rather than coset pooling for Z2, and coset-pooling is only used in the final layer to pool over feature maps across 90-degree rotations, achieving exact rotation equivariance but imperfect translation equivariance. 5] の p4-cnns は z2 のコセットプーリングではなく、ストライド=2 の標準maxプーリングを使用し、コセットプーリングは最終層でのみ使われ、90 度の回転にまたがる特徴写像をプールし、正確な回転同分散を達成するが不完全変換同分散を達成する。 0.65
In our work, we use translation equivariant subsampling in the earlier layers and rotation equivariant subsampling in the final layers to achieve exact roto-translation equivariance. 本研究では, 先行層における変換同変部分サンプリングと最終層における回転同変部分サンプリングを用いて, 正確なroto-translation同分散を実現する。 0.55
Figure 2: Coset (max) pooling vs. equivariant subsampling. 図2: Coset (max) pooling vs. equivariant subsampling。 0.84
Unsupervised disentangling and object discovery GAEs produce equivariant (zeq) and invariant (zinv) representations, effectively separating position and pose information with other semantic information. unsupervised disentangling と object discovery gaes は同変 (zeq) と不変 (zinv) の表現を生成し、位置とポーズ情報を他の意味情報と効果的に分離する。 0.61
This relates to unsupervised disentangling [4, 21, 28, 52] where different factors of variation in the data are separated in different dimensions of a low-dimensional representation. これは、データのばらつきの異なる要因が低次元表現の異なる次元で分離される教師なし不一致 [4,21,28,52] に関連している。 0.74
However unlike equivariant subsampling, there is no guarantee of any equivariance in the lowdimensional representation, making the resulting disentangled representations less interpretable. しかし、同変部分サンプリングとは異なり、低次元表現における任意の同値性の保証は存在せず、結果として生じる不等角表現は解釈不能となる。 0.53
Works on unsupervised object discovery [2, 13, 19, 32] learn object-centric representations, and we showcase GAEs in MONet [2] where we replace their VAE with a V-GAE in order to separate position and pose information and learn more interpretable representations of objects in a data-efficient manner. オブジェクト発見の教師なし作業 [2, 13, 32] ではオブジェクト中心の表現を学習し,V-GAEに置き換えて位置情報を分離し,データ効率のよい方法でオブジェクトのより解釈可能な表現を学習するMONet [2]でGAEを紹介した。 0.76
6 6 0.85
英語(論文から抽出)日本語訳スコア
Shift-invariance in CNNs As early as [40], it has been discussed that shift-invariance cannot hold for conventional subsampling. cnnのシフト不変性は [40] にも早くも議論されており、シフト不変性は従来のサブサンプリングでは保持できない。 0.58
Although standard subsampling operations such as pooling or strided convolutions are not exactly shift invariant, they do not prevent strong performance on classification tasks [39]. プーリングやストレート畳み込みのような標準的なサブサンプリング操作は、正確には不変であるが、分類タスクの強いパフォーマンスを妨げない [39]。 0.67
Nonetheless, [51] integrates anti-aliasing to improve shift-invariance, showing that it leads to better performance and generalisation on classification tasks. それでも[51]はアンチエイリアシングを統合してシフト非分散を改善し、それによって分類タスクのパフォーマンスと一般化が向上することを示している。 0.58
[3] explore a similar strategy to our equivariant subsampling by partitioning feature maps into polyphase components and select the component with the highest norm. [3]特徴写像を多相成分に分割し、最も高い基準で成分を選択することで、同変部分サンプリングと同じような戦略を探求する。 0.58
However, unlike the proposed group equivariant subsampling/upsampli ng which tackle general equivariance for arbitrary discrete groups, both works focus only on translation invariance. しかし、任意の離散群に対する一般同値化に取り組む群同変部分サンプリング/アップサンプリングとは異なり、どちらの仕事も翻訳不変性のみに焦点を当てている。 0.50
5 Experiments In this section, we compare the performance of GAEs with equivariant subsampling to their nonequivariant counterparts that use standard subsampling/upsampli ng in object-centric representation learning. 5 実験 この節では,GAE と等変部分サンプリングの性能を,オブジェクト中心表現学習における標準部分サンプリング/アップサンプリングを用いた非同変部分サンプリングと比較する。 0.55
We show that GAEs give rise to more interpretable representations that show better sample complexity and generalisation than their non-equivariant counterparts. 我々はGAEがより解釈可能な表現を生み出し、非同変表現よりもサンプルの複雑さと一般化が優れていることを示した。 0.57
Models and Baselines (G-)Convolutional autoencoders (G)ConvAE are composed of alternating (G-)convolutional layers and subsampling/upsampli ng operations with a final MLPs applied to the flattened feature maps. Models and Baselines (G-)Convolutional Autoencoders (G)ConvAEは、(G-)畳み込み層と、フラット化された特徴写像に最終的なMLPを適用したサブサンプリング/アップサンプリング操作からなる。 0.75
We categorize models by the types of equivariance preserved by the convolutional layers. 我々は、畳み込み層で保存される同値のタイプによってモデルを分類する。 0.66
We consider three different discrete symmetry groups: p1 (only translations), p4 (composition of translations and 90 degree rotations), p4m (composition of translations, 90 degree rotations and mirror reflection). p1(翻訳のみ)、p4(翻訳の合成と90度回転)、p4m(翻訳の合成、90度回転とミラー反射)の3つの異なる離散対称性群を考える。 0.81
The baseline models are: ConvAE-p1 (standard convolutional autoencoders), GConvAE-p4, GConvAE-p4m, where the corresponding equivariance is preserved in the (G-)convolutional layers but not in the subsampling/upsampli ng operations. convae-p1 (standard convolutional autoencoder), gconvae-p4, gconvae-p4m, ここで対応する等分散は(g-)畳み込み層に保存されるが、サブサンプリング/アップサンプリング操作には保存されない。 0.52
The equivariant counterparts of these baseline models are GAE-p1, GAE-p4, GAE-p4m, where the subsampling/upsampli ng operations are also equivariant. これらのベースラインモデルの同変代数は gae-p1, gae-p4, gae-p4m であり、ここではサブサンプリング/アップサンプリング演算も同変である。
訳抜け防止モード: これらのベースラインモデルの同変モデルはGAE - p1, GAE - p4, GAE - p4 m では、サブサンプリング/アップサンプリング操作も同変である。
0.47
For baseline models, we use a scale factor of 2 for all subsampling/upsampli ng layers. ベースラインモデルでは、すべてのサブサンプリング/アップサンプリング層に2のスケールファクタを使用します。 0.59
For GAEs, we subsample first the translations, then rotations, followed by reflections, all with scale factor 2. e g for GAE-p4m, the feature maps at each layer are defined on the following chain of nested subgroups: Z2 (cid:111) (C4 (cid:111) C2) ≥ (2Z)2 (cid:111) (C4 (cid:111) C2) ≥ (4Z)2 (cid:111) (C4 (cid:111) C2) ≥ (8Z)2 (cid:111) (C4 (cid:111) C2) ≥ (16Z)2 (cid:111) (C2 (cid:111) C2) ≥ {e}. まず、GAE に対して、まず変換、回転、次にリフレクションを行い、それぞれスケール係数 2. e g for GAE-p4m で、各層における特徴写像はネストした部分群の次の鎖に定義される: Z2 (cid:111) (C4 (cid:111) ≥ (2Z)2 (cid:111) (C4 (cid:111) C2) ≥ (4Z)2 (cid:111) (C4 (cid:111) C2) ≥ (8Z)2 (cid:111) (C4 (cid:111) C2) ≥ (16Z)2 (cid:111) C2) ≥ {e} (cid:111) C1) (cid:111) C2) ≥ (cid:111) ≥ {e} である。 0.70
As in [5], we rescale the number of channels such that the total number of parameters of these models roughly match each other. 5]のように、これらのモデルのパラメータの総数が大まかに一致するように、チャネル数を再スケールします。 0.79
Data To demonstrate basic properties of GAEs and compare sample complexity under the single object scenario, we use Colored-dSprite [35] and a modification of FashionMNIST [49], where we first apply zero-padding to reach a size of 64 × 64, followed by random shifts, rotations and coloring. gaesの基本特性を実証し、単一のオブジェクトシナリオでサンプルの複雑さを比較するために、colored-dsprite [35] と fashionmnist [49] の修正を用い、まずゼロパディングを適用して64×64のサイズに到達し、その後ランダムシフト、回転、色付けを行う。 0.70
For multi-object datasets, we use Multi-dSprites [26] and CLEVR6 which is a variant of CLEVR [25] with up to 6 objects. マルチオブジェクトデータセットでは、最大6つのオブジェクトを持つCLEVR [25]の変種であるMulti-dSprites [26]とCLEVR6を使用します。 0.88
All input images are resized to a resolution of 64 × 64. すべての入力画像は64×64の解像度にリサイズされる。 0.80
See Appendix E and our reference implementation 3 for more details on hyperparameters and data preprocessing. ハイパーパラメータとデータ前処理の詳細については、Appendix Eとリファレンス実装3を参照してください。 0.68
Our implementation is built upon open source projects [13, 20, 23, 36, 42, 45, 50]. 実装はオープンソースプロジェクト[13, 20, 23, 36, 42, 45, 50]をベースにしています。 0.78
5.1 Basic Properties: Equivariance, Disentanglement and Out-of-Distribution 5.1 基本特性:等分散、絡み合い、分布外 0.69
Generalization Equivariance The encoder-decoder pipeline in GAEs is exactly equivariant. 一般化 等価性 GAE におけるエンコーダ・デコーダパイプラインは、まさに同変である。 0.53
In Figure 3, we train GAE-p4m on 6400 examples from Colored-dSprites, and we show how to manipulate reconstructions by manipulating the equivariant representation zeq (left). 図3では、Colored-dSpritesから6400例のGAE-p4mをトレーニングし、同変表現zeq(左)を操作することで再構成の操作方法を示す。 0.68
If an image x is encoded into [zinv, zeq], then decoding [zinv, g · zeq] will give g · ˆx where ˆx is the reconstruction of x. Disentanglement The learned representations in GAEs are disentangled into an invariant part zinv and an equivariant part zeq. イメージ x が [zinv, zeq] にエンコードされると、デコード[zinv, g · zeq] は g · x を与え、x は x の再構成である。
訳抜け防止モード: 画像 x が [ zinv, zeq ] に符号化されている場合 するとデコード [zinv, g · zeq ] g·x とすると x」は「x」の再構築であり、gaesにおける学習表現の不等角化 不変部zinvと同変部zeqとに連接する。
0.77
In Figure 3 (left), we vary the equivariant part while the invariant part remains the same. 図3(左)では、不変部分は同じであるが、不変部分は同じである。 0.73
In Figure 3 (right), we show the frames of a movie of a heart, and show its reconstruction after replacing zinv representing a heart with that of an ellipse. 図3(右)では、心のフィルムのフレームを示し、心を表すzinvを楕円のフレームに置き換えた後、その再構築を示す。 0.63
Note that the ellipse shape undergoes the same sequence of transformations as the heart. 楕円形は心臓と同じ変換の列を成すことに注意。 0.63
Out-of-distribution generalisation GAEs can generalise to data with unseen object locations and poses. 分布外一般化GAEは、見えないオブジェクトの位置とポーズを持つデータに一般化することができる。 0.48
We train an GAE-p4 on 6400 constrained training examples, where we only use examples GAE-p4を6400の制約付きトレーニング例でトレーニングします。 0.62
3https://github.com/ jinxu06/gsubsampling 3https://github.com/ jinxu06/gsubsampling 0.34
7 7 0.85
英語(論文から抽出)日本語訳スコア
Figure 3: (Left) Manipulating reconstructions by modifying the equivariant part zeq. 図3: (Left)同変部分 zeq を変更して再構成を操作する。 0.64
The second column are the original reconstructions, which match the inputs well. 第2の列は、入力によくマッチしたオリジナルの再構築です。 0.75
The subsequent columns are reconstructions decoded from modified zeq. その後の列は、修正されたzeqからデコードされた再構成である。 0.44
We transform zeq with a sequence of group elements, and show the resulting reconstructions. 我々は、zeqを群要素の列で変換し、その結果の再構成を示す。 0.72
(Right) Manipulating reconstruction shape by modifying zinv. (高)zinvを改造して復元形状を操る。 0.56
Figure 4: Generalisation to out-of-distribution object locations and poses. 図4: 配布外オブジェクトの位置とポーズへの一般化。 0.67
During training, we constrain shapes to be in the top-left quarter, and the orientation to be always less than 90 degrees. トレーニング中は、形状を左上の四分の一に制限し、方向は常に90度以下に制限します。 0.63
On the right, we compare the error of reconstructions of different models generalise on objects at unseen locations in the first row, and how they generalise to unseen orientations in the second row. 右側では、異なるモデルの再構成の誤差を第1行の見えない位置にある対象に一般化し、第2行の見えない向きに一般化する方法について比較する。 0.66
with locations in the top-left quarter and orientations within [0, 90] degrees, as shown in Figure 4. 図4に示すように、左上の四分の一の位置と[0, 90]度の範囲の方向で 0.79
During test time, we evaluate mean squared error (MSE) of reconstructions on unfiltered test data to see how models generalise to unseen location and poses. テスト時間中,非フィルタリングテストデータに対する復元平均二乗誤差(mse)を評価し,モデルが認識できない位置やポーズにどのように一般化するかを確認した。 0.61
Both ConvAE-p1 and GConvAE-p4 cannot generalise well to object poses out of their training distribution. ConvAE-p1とGConvAE-p4はどちらも、トレーニング分布からオブジェクトのポーズをうまく一般化できない。 0.57
In contrast, GAE-p1 generalise to any locations without performance degradation but not to unseen orientations, while GAE-p4, which encodes both translation and rotation equivariance, generalises well to all locations and orientations. 対照的に、GAE-p1は性能劣化のない任意の場所に一般化するが、GAE-p4は変換と回転の等価性を符号化し、すべての位置と向きを一般化する。
訳抜け防止モード: 対照的にGAE - p1は性能劣化のない任意の場所に一般化する GAE - p4は翻訳と回転の等価性をエンコードします。 あらゆる場所と方向を 一般化する
0.75
We only use heart shapes for evaluation, because the square and ellipse have inherent symmetries. 正方形と楕円形には固有の対称性があるため、評価には心臓形状のみを使用します。 0.61
5.2 Single Object 5.2 単一オブジェクト 0.74
Since GAEs are fully equivariant and can generalize to unseen object poses, it is natural to conjecture that such models can significantly improve data efficiency when symmetrytransformed data points are also plausible samples from the data distribution. gaes は完全同値であり、被写体ポーズを一般化することができるので、対称性変換されたデータポイントがデータ分布から妥当なサンプルである場合、そのようなモデルがデータ効率を大幅に改善できると推測するのは自然である。 0.59
We test this hypothesis on Colored-dSprites and transformed FashionMNIST, and the results are shown in Figure 5. 色付きdSpritesと変換されたFashionMNISTでこの仮説を検証し、その結果を図5に示す。 0.75
On both datasets, equivariant autoencoders significantly outperform their non-equivariant counterparts for all considered training set sizes. 両方のデータセットにおいて、等変オートエンコーダは、考慮されたトレーニングセットサイズすべてに対して、同変でないオートエンコーダよりも大幅に優れている。 0.30
In fact, as shown in the figure, equivariant models trained with a smaller training set size is often comparable to baseline models trained on a larger training set. 実際、図に示すように、より小さなトレーニングセットサイズでトレーニングされた同変モデルはしばしば、より大きなトレーニングセットでトレーニングされたベースラインモデルに匹敵する。 0.71
Furthermore, the results demonstrate that it is beneficial to consider symmetries beyond translations in these problems: for both non-equivariant and equivariant models, variants that encode rotation and reflection symmetries consistently show better performance compared to models that only consider the translation symmetry. さらに、これらの問題において、非等変モデルと等変モデルの両方に対して、回転と反射対称性をエンコードする変種は、翻訳対称性のみを考えるモデルよりも一貫して優れた性能を示す。 0.81
8 Figure 5: Reconstruction error on single object datasets 8 図5:単一オブジェクトデータセットの再構成エラー 0.85
InputReconstructionI nput movieReconstructed movie with replacedConvAE-p1GCo nvAE-p4GAE-p1GAE-p4 ReconstructionInput MovieReconstructed Films with replacedConvAE-p1GCo nvAE-p4GAE-p1GAE-p4 0.31
英語(論文から抽出)日本語訳スコア
Table 1: Reconstruction error MSE (×10−3) (mean(stddev) across 5 seeds) on multi-object datasets 表1:多目的データセットにおける再構成誤差mse(×10−3)(種5種間平均) 0.74
Dataset Training Set Size 2.661(0.382) 1.385(0.235) 0.326(0.076) 0.673(0.059) 0.562(0.057) 0.546(0.056)1 MONet MONet-GAE-p1 0.659(0.103) 0.359(0.025) 0.264(0.042) 0.473(0.064) 0.432(0.052) 0.388(0.016) MONet-GAE-p4 0.563(0.195) 0.317(0.060) 0.231(0.067) 0.461(0.025) 0.414(0.022) 0.413(0.018) Dataset Training Set Size 2.661(0.382) 1.385(0.235) 0.326(0.076) 0.673(0.059) 0.562(0.057) 0.546(0.056)1 MONet MONet-GAE-p1 0.659(0.103) 0.359(0.025) 0.264(0.042) 0.473(0.064) 0.432(0.052) 0.388(0.016) MONet-GAE-p4 0.563(0.195) 0.317(0.060) 0.231(0.067) 0.461(0.025) 0.414(0.022) 0.413(0.018) 0.58
Multi-dSprites Multi-dSprites 0.59
CLEVR6 12800 CLEVR6 12800 0.82
12800 6400 12800 6400 0.85
3200 6400 3200 3200 6400 3200 0.85
Table 2: Foreground segmentation performance in terms of ARI (mean(stddev) across 5 seeds) 表2:ARI(5種にまたがる平均)による前景セグメンテーション性能 0.54
Dataset Training Set Size 0.597(0.022) 0.747(0.049) 0.891(0.009) 0.829(0.055) 0.878(0.023) 0.865(0.033)1 MONet MONet-GAE-p1 0.762(0.049) 0.823(0.042) 0.889(0.013) 0.921(0.015) 0.917(0.032) 0.920(0.025) MONet-GAE-p4 0.753(0.089) 0.833(0.072) 0.902(0.025) 0.878(0.055) 0.914(0.012) 0.910(0.011) 1 We excluded 2 outliers here as the baseline MONet occasionally fails during late-phase training. Dataset Training Set Size 0.597(0.022) 0.747(0.049) 0.891(0.009) 0.829(0.055) 0.878(0.023) 0.865(0.033)1 MONet MONet-GAE-p1 0.762(0.049) 0.823(0.042) 0.889(0.013) 0.921(0.015) 0.917(0.032) 0.920(0.025) MONet-GAE-p4 0.753(0.089) 0.833(0.072) 0.902(0.025) 0.878(0.055) 0.914(0.012) 0.910(0.011) 1 ここでは、MONetのベースラインが遅延フェイズ時に失敗する2つの出力を除外する。 0.59
Multi-dSprites Multi-dSprites 0.59
CLEVR6 12800 CLEVR6 12800 0.82
12800 6400 12800 6400 0.85
3200 6400 3200 3200 6400 3200 0.85
5.3 Multiple Objects 5.3 複数のオブジェクト 0.65
In multi-object scenes, it is often more interesting to consider local symmetries associated with objects rather than the global symmetry for the whole image. 多目的シーンでは、画像全体の大域対称性ではなく、オブジェクトに付随する局所対称性を考えることがしばしば興味深い。 0.73
To exploit object symmetries in image data, one needs to first discover objects and separate them from the background, which is a challenging problem on its own. 画像データのオブジェクト対称性を利用するには、まずオブジェクトを発見し、それらを背景から分離する必要がある。 0.60
Currently, GAEs do not have inherent capability to solve these problems. 現在、GAEはこれらの問題を解決する固有の能力を持っていない。 0.59
In order to investigate whether our models could improve data efficiency in multi-object settings, we rely on recent work on unsupervised object discovery and only use GAEs to model object components. 我々のモデルがマルチオブジェクト設定でデータ効率を向上させるかどうかを調べるために、教師なしオブジェクト発見の最近の取り組みに頼り、オブジェクトコンポーネントをモデル化するためにのみGAEを使用する。 0.70
More specifically, we explored replacing component VAEs in MONet [2] with V-GAEs (probabilistic version of our GAEs, where a standard Gaussian prior is put on zinv and zeq remains deterministic), and train models end-to-end. 具体的には、monet [2]のコンポーネントvaesをv-gaes(標準的なgaussian priorがzinvに置かれ、zeqが決定論的であるgaesの確率的バージョン)に置き換え、エンドツーエンドでモデルをトレーニングすることを検討しました。 0.53
Again we study the low data regime to show results on data efficiency. また、データ効率に関する結果を示すために低データレジームについても検討する。 0.63
We train models on Multi-dSprites and CLEVR6 with training set sizes 3200, 6400 and 12800. トレーニングセットのサイズは3200,6400,12800のMulti-dSpritesとCLEVR6でトレーニングします。 0.71
We consider two evaluation metrics: mean squared error (MSE) to measure the overall reconstruction quality, and adjusted rand index (ARI), which is a clustering similarity measure ranging from 0 (random) to 1 (perfect) to measure object segmentation. 本研究では,全体の復元品質を測定する平均二乗誤差(MSE)と,オブジェクトセグメンテーションを測定するための0(ランダム)から1(完全)までのクラスタリング類似度尺度である調整ランド指数(ARI)の2つの評価指標を検討する。 0.81
As in [2], we only use foreground pixels to compute ARI. [2] と同様に、ARI の計算には前景ピクセルのみを用いる。 0.75
Component VAEs in MONet use spatial broadcast decoders [43] that broadcast the latent representation to a full scale feature map before feeding them into the decoders, and the decoders therefore do not need upsampling. MONetのコンポーネントVAEは空間放送デコーダ[43]を使用し、デコーダに入力する前に潜在表現をフルスケールのフィーチャーマップにブロードキャストするので、デコーダはアップサンプリングを必要としない。 0.72
It has the implicit effect of encouraging the smoothness of the decoder outputs. これはデコーダ出力の滑らかさを促進する暗黙的な効果を持つ。 0.80
To encourage similar behaviour, we add average pooling layers with stride 1 and kernel size 3 to our equivariant decoders. 同様の振る舞いを促すために、ストライド1とカーネルサイズ3の平均プール層を同変デコーダに追加する。 0.68
As shown in Table 1, using GAEs to model object components significantly improves reconstruction quality, which is consistent with our findings in single-object scenario. 表1に示すように、GAEを用いてオブジェクトコンポーネントをモデル化することで、再構成の品質が大幅に向上する。 0.71
As shown in Table 2, using GAEs to model object components also leads to better object discovery in the low data regimes, but this advantage seems to diminish as the dataset becomes sufficiently large. 表2に示すように、GAEを使ってオブジェクトコンポーネントをモデル化すると、低データレシエーションにおけるオブジェクトの発見も改善されるが、データセットが十分に大きくなると、この利点は低下するようである。 0.71
6 Conclusions, Limitations and Future Work 6 結論、限界及び今後の課題 0.75
Conclusions We have proposed subsampling/upsampli ng operations that exactly preserve translation equivariance, and generalised them to define exact group equivariant subsampling/upsampli ng for discrete groups. 結論 我々は、翻訳同分散を正確に保存する部分サンプリング/アップサンプリング演算を提案し、離散群に対する完全群同変部分サンプリング/アップサンプリングを定義するように一般化した。 0.46
We have used these layers in GAEs that allow learning low-dimensional representations that can be used to reliably manipulate pose and position of objects, and further showed how GAEs can be used to improve data efficiency in multi-object representation learning models. 我々は、これらのレイヤをGAEで使用し、オブジェクトのポーズや位置を確実に操作できる低次元表現を学習できるようにし、さらに、GAEがマルチオブジェクト表現学習モデルにおけるデータ効率を改善する方法を示した。 0.74
Limitations and Future work Although the equivariance properties of subsampling layers also hold for Lie groups, we have not discussed the practical complexities that arise with the continuous case, where feature maps are only defined on a finite subset of the group rather than the whole group. 制限と将来の作業 部分サンプリング層の同値性はリー群にも当てはまるが、連続の場合で生じる実践的な複雑さは議論されていない。
訳抜け防止モード: 極限と今後の研究 部分サンプリング層の等値性はリー群にも当てはまる。 連続的なケースで生じる 現実的な複雑さについて 議論していません 特徴写像は群全体ではなく、群の有限部分集合上でのみ定義される。
0.73
We leave this as important future work, as well as application of equivariant subsampling for tasks other than representation learning where equivariance/invaria nce is desirable e g object classification, localization. このことは、等式/不変性が望ましい表現学習以外のタスク、例えばgオブジェクトの分類、ローカライゼーションなどへの等変部分サンプリングの適用と同様に、重要な将来の作業として残す。 0.57
Another limitation is that our work focuses on global equivariance, like most other works in the literature. もう1つの制限は、我々の作品が文学の他の作品と同様、グローバル等分散に焦点を当てていることである。 0.50
An important direction is to extend to the case of local equivariances e g object-specific symmetries for multi-object scenes. 重要な方向は、マルチオブジェクトシーンに対するオブジェクト固有の対称性など、局所的等分散の場合に拡張することである。
訳抜け防止モード: 重要な方向は 局所同値の場合、egオブジェクト - マルチオブジェクトシーンの特定の対称性 - に拡張する。
0.67
9 9 0.85
英語(論文から抽出)日本語訳スコア
Acknowledgments and Disclosure of Funding 資金調達の承認と開示 0.77
We would like to thank Adam R. Kosiorek for valuable discussion. 我々は価値ある議論にAdam R. Kosiorek氏に感謝します。 0.74
We also thank Lewis Smith, Desi Ivanova, Sheheryar Zaidi, Neil Band, Fabian Fuchs, Ning Miao, and Matthew Willetts for providing feedback on earlier versions of the paper. また、Lewis Smith氏、Desi Ivanova氏、Sheheryar Zaidi氏、Neil Band氏、Fabian Fuchs氏、Ning Miao氏、Matthew Willetts氏も、この論文の以前のバージョンについてフィードバックしてくれたことに感謝しています。
訳抜け防止モード: Lewis Smith、Desi Ivanova、Sheheryar Zaidiにも感謝します。 Neil Band氏、Fabian Fuchs氏、Ning Miao氏、Matthew Willetts氏は、以前のバージョンの論文に対するフィードバックを提供した。
0.71
JX gratefully acknowledges funding from Tencent AI Labs through the Oxford-Tencent Collaboration on Large Scale Machine Learning. JXは、Oxford-Tencent Collaboration on Large Scale Machine Learningを通じてTencent AI Labsからの資金調達を喜んで認めた。 0.66
References [1] Bekkers, E. J. 参考文献 [1] Bekkers, E. J。 0.84
(2020). B-spline CNNs on Lie groups. (2020). B-spline CNNs on Lie group 0.87
In ICLR. [2] Burgess, C. P., Matthey, L., Watters, N., Kabra, R., Higgins, I., Botvinick, M., and Lerchner, A. ICLR。 [2]Burgess, C. P., Matthey, L., Watters, N., Kabra, R., Higgins, I., Botvinick, M., Lerchner, A。 0.65
(2019). Monet: Unsupervised scene decomposition and representation. (2019). Monet: 教師なしのシーンの分解と表現。 0.77
arXiv preprint arXiv:1901.11390. arXiv preprint arXiv:1901.11390 0.72
[3] Chaman, A. and Dokmani´c, I. [3]Chaman, A. and Dokmani ́c, I. 0.88
(2020). Truly shift-invariant convolutional neural networks. (2020). 真のシフト不変畳み込みニューラルネットワーク。 0.72
arXiv preprint arXiv プレプリント 0.83
arXiv:2011.14214. arxiv: 2011.14214。 0.27
[4] Chen, T. Q., Li, X., Grosse, R., and Duvenaud, D. (2018). [4] Chen, T. Q., Li, X., Grosse, R., and Duvenaud, D. (2018)。 0.89
Isolating sources of disentanglement in variational 変分における絡み合いの解離源 0.69
autoencoders. オートエンコーダー。 0.57
In International Conference on Learning Representations. 学習表現に関する国際会議に参加。 0.79
[5] Cohen, T. and Welling, M. (2016). [5] cohen, t. and welling, m. (2016) 0.76
Group equivariant convolutional networks. 群同変畳み込みネットワーク。 0.61
In International conference on machine learning, pages 2990–2999. 国際会議において 機械学習では2990-2999ページ。 0.76
[6] Cohen, T. S., Geiger, M., Köhler, J., and Welling, M. (2018a). [6] Cohen, T. S., Geiger, M., Köhler, J., and Welling, M. (2018a). 0.95
Spherical CNNs. In ICLR. 球形CNN。 ICLR。 0.54
[7] Cohen, T. S., Geiger, M., Köhler, J., and Welling, M. (2018b). [7] Cohen, T. S., Geiger, M., Köhler, J., and Welling, M. (2018b). 0.95
Spherical CNNs. In International Conference 球形CNN。 国際会議において 0.64
on Learning Representations. 表現の学習について。 0.43
[8] Cohen, T. S., Geiger, M., and Weiler, M. (2018c). [8] Cohen, T. S., Geiger, M. and Weiler, M. (2018c). 0.97
Intertwiners between induced representations (with 誘導表現間の相互関係 0.67
applications to the theory of equivariant neural networks). 等変ニューラルネットワークの理論への応用)。 0.71
arXiv preprint arXiv:1803.10743. arXiv preprint arXiv:1803.10743 0.71
[9] Cohen, T. S., Geiger, M., and Weiler, M. (2019). 9] Cohen, T. S., Geiger, M. and Weiler, M. (2019)。 0.83
A general theory of equivariant cnns on homogeneous 均質上の同変 cnn の一般理論 0.74
spaces. Advances in neural information processing systems, 32:9145–9156. スペース。 神経情報処理システムの進歩、32:9145-9156。 0.68
[10] Cohen, T. S. and Welling, M. (2017). [10]Cohen, T. S. and Welling, M. (2017)。 0.87
Steerable cnns. In International Conference on Learning Representa- ステアブルcnn。 学習表現に関する国際会議- 0.60
tions. [11] Dieleman, S., De Fauw, J., and Kavukcuoglu, K. (2016). イオンだ [11] Dieleman, S., De Fauw, J., and Kavukcuoglu, K. (2016)。 0.56
Exploiting cyclic symmetry in convolutional 畳み込みにおける循環対称性の爆発 0.56
neural networks. ニューラルネットワーク。 0.65
In International Conference on Machine Learning, pages 1889–1898. 機械学習に関する国際会議、1889-1898頁。 0.75
[12] Dieleman, S., Willett, K. W., and Dambre, J. 12] Dieleman, S., Willett, K. W., Dambre, J. 0.76
(2015). Rotation-invariant convolutional neural networks for (2015). 回転不変畳み込みニューラルネットワーク 0.75
galaxy morphology prediction. Monthly notices of the royal astronomical society, 450(2):1441–1459. 銀河形態予測。 王立天文学会の月報、450(2):1441–1459。 0.56
[13] Engelcke, M., Kosiorek, A. R., Parker Jones, O., and Posner, I. 13] Engelcke, M., Kosiorek, A. R., Parker Jones, O., Posner, I. 0.76
(2020). GENESIS: Generative Scene Inference and Sampling of Object-Centric Latent Representations. (2020). genesis: 生成的なシーン推論とオブジェクト中心の潜在表現のサンプリング。 0.71
International Conference on Learning Representations (ICLR). ICLR (International Conference on Learning Representations) の略。 0.78
[14] Esteves, C., Allen-Blanchette, C., Makadia, A., and Daniilidis, K. (2018). 14] Esteves, C., Allen-Blanchette, C., Makadia, A., Daniilidis, K. (2018)。 0.83
Learning SO(3) equivariant representations with spherical CNNs. 学習SO(3)同変 球面CNNによる表現。 0.69
In ECCV. [15] Esteves, C., Makadia, A., and Daniilidis, K. (2020). ECCV。 [15] Esteves, C., Makadia, A., Daniilidis, K. (2020)。 0.65
Spin-weighted spherical CNNs. スピン重み付き球状CNN。 0.57
In NeurIPS. NeurIPSに登場。 0.80
[16] Finzi, M., Stanton, S., Izmailov, P., and Wilson, A. G. (2020). 16] Finzi, M., Stanton, S., Izmailov, P., and Wilson, A. G. (2020). 0.87
Generalizing convolutional neural networks 畳み込みニューラルネットワークの一般化 0.70
for equivariance to Lie groups on arbitrary continuous data. 任意の連続データ上のリー群に同値である。 0.60
In ICML. [17] Fuchs, F. B., Worrall, D. E., Fischer, V., and Welling, M. (2020). ICML。 [17]Fuchs, F. B., Worrall, D. E., Fischer, V., and Welling, M. (2020)。 0.70
SE(3)-Transformers: 3D roto-translation se(3)-transformers:3 d roto-translation 0.77
equivariant attention networks. 同種の注意ネットワークです 0.65
In NeurIPS. NeurIPSに登場。 0.80
[18] Gens, R. and Domingos, P. M. (2014). [18] Gens, R. and Domingos, P. M. (2014). 0.99
Deep symmetry networks. ディープ対称性ネットワーク。 0.70
Advances in neural information processing systems, 27:2537–2545. 神経情報技術の進歩 処理システム 27:2537–2545。 0.72
[19] Greff, K., Kaufman, R. L., Kabra, R., Watters, N., Burgess, C., Zoran, D., Matthey, L., Botvinick, M., and Lerchner, A. [19] Greff, K., Kaufman, R. L., Kabra, R., Watters, N., Burgess, C., Zoran, D., Matthey, L., Botvinick, M., Lerchner, A。 0.83
(2019). Multi-object representation learning with iterative variational inference. (2019). 反復変分推論による多目的表現学習 0.75
In International Conference on Machine Learning, pages 2424–2433. 機械学習に関する国際会議』2424-2433頁。 0.76
PMLR. 10 PMLR。 10 0.83
英語(論文から抽出)日本語訳スコア
[20] Harris, C. R., Millman, K. J., van der Walt, S. J., Gommers, R., Virtanen, P., Cournapeau, D., Wieser, E., Taylor, J., Berg, S., Smith, N. J., Kern, R., Picus, M., Hoyer, S., van Kerkwijk, M. H., Brett, M., Haldane, A., del Río, J. F., Wiebe, M., Peterson, P., Gérard-Marchant, P., Sheppard, K., Reddy, T., Weckesser, W., Abbasi, H., Gohlke, C., and Oliphant, T. E. (2020). He20] Harris, C. R., Millman, K. J., van der Walt, S. J., Gommers, R., Virtanen, P., Cournapeau, D., Wieser, E., Taylor, J., Berg, S., Smith, N. J., Kern, R., Picus, M., Hoyer, S., van Kerkwijk, M. H., Bret, M., Haldane, A., del Río, J. F., Wiebe, M., Peterson, P., Gérard- Marchant, P., Sheppard, K., Reddy, T. Wecke, Wsser, Absi, Gohl, C., O. T. E. (2020). 0.87
Array programming with NumPy. NumPyによるアレープログラミング。 0.79
Nature, 585(7825):357–362. 自然数 585(7825):357–362。 0.64
[21] Higgins, I., Matthey, L., Pal, A., Burgess, C., Glorot, X., Botvinick, M., Mohamed, S., and Lerchner, A. Heggins, I., Matthey, L., Pal, A., Burgess, C., Glorot, X., Botvinick, M., Mohamed, S., Lerchner, A.
訳抜け防止モード: [21 ]Higins, I., Matthey, L., Pal, A., Burgess, C., Glorot, X., Botvinick M., Mohamed , S., Lerchner , A。
0.75
(2017). beta-VAE: Learning basic visual concepts with a constrained variational framework. (2017). beta-VAE: 制約付き変動フレームワークで基本的な視覚概念を学ぶ。 0.79
In International Conference on Learning Representations. 学習表現に関する国際会議に参加。 0.79
[22] Hoogeboom, E., Peters, J. W., Cohen, T. S., and Welling, M. (2018). [22]Hoogeboom, E., Peters, J. W., Cohen, T. S., and Welling, M. (2018)。 0.91
HexaConv. In ICLR. HexaConv ICLR。 0.51
[23] Hunter, J. D. (2007). [23] Hunter, J. D. (2007)。 0.96
Matplotlib: A 2d graphics environment. Matplotlib: 2Dグラフィックス環境。 0.79
Computing in Science & Engineering, 9(3):90–95. 専門は科学・工学。 9(3):90–95. 0.64
[24] Hutchinson, M., Le Lan, C., Zaidi, S., Dupont, E., Teh, Y. W., and Kim, H. (2021). [24]Hutchinson, M., Le Lan, C., Zaidi, S., Dupont, E., Teh, Y. W., Kim, H. (2021) 0.80
Lietransformer: Equivariant self-attention for lie groups. Lietransformer: 嘘群に対する同変自己アテンション。 0.67
In Proceedings of the 38th International Conference on Machine Learning (ICML). 第38回In Proceedings of the 38th International Conference on Machine Learning (ICML)に参加して 0.71
[25] Johnson, J., Hariharan, B., Van Der Maaten, L., Fei-Fei, L., Lawrence Zitnick, C., and Girshick, R. (2017). [25]Johnson, J., Hariharan, B., Van Der Maaten, L., Fei-Fei, L., Lawrence Zitnick, C., and Girshick, R. (2017). 0.91
Clevr: A diagnostic dataset for compositional language and elementary visual reasoning. Clevr: 合成言語と基本的な視覚的推論のための診断データセット。 0.73
In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages 2901–2910. The Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, page 2901–2910。 0.88
[26] Kabra, R., Burgess, C., Matthey, L., Kaufman, R. L., Greff, K., Reynolds, M., and Lerchner, A. [26] Kabra, R., Burgess, C., Matthey, L., Kaufman, R. L., Greff, K., Reynolds, M., Lerchner, A。 0.82
(2019). Multi-object datasets. (2019). マルチオブジェクトデータセット。 0.70
https://github.com/d eepmind/multi-object -datasets/. https://github.com/d eepmind/multi-object -datasets/ 0.34
[27] Kanazawa, A., Sharma, A., and Jacobs, D. (2014). [27]金沢, A., Sharma, A., Jacobs, D. (2014)。 0.73
Locally scale-invariant convolutional neural networks. 局所的スケール不変畳み込みニューラルネットワーク 0.73
arXiv preprint arXiv:1412.5104. arXiv preprint arXiv:1412.5104 0.71
[28] Kim, H. and Mnih, A. [28]Kim, H. and Mnih, A. 0.86
(2018). Disentangling by factorising. (2018). 因果化による抑止。 0.61
In International Conference on Learning 学習に関する国際会議 0.74
Representations. [29] Kingma, D. P. and Ba, J. 表現。 [29]Kingma, D. P. and Ba, J. 0.74
(2015). Adam: A method for stochastic optimization. (2015). Adam: 確率最適化の方法です。 0.77
In Bengio, Y. and LeCun, Y., editors, 3rd International Conference on Learning Representations, ICLR 2015, San Diego, CA, USA, May 7-9, 2015, Conference Track Proceedings. In Bengio, Y. and LeCun, Y., editors, 3rd International Conference on Learning Representations, ICLR 2015 San Diego, CA, USA, May 7-9, Conference Track Proceedings。 0.82
[30] Kondor, R., Lin, Z., and Trivedi, S. (2018). [30]Kondor, R., Lin, Z., Trivedi, S. (2018)。 0.78
Clebsch–Gordan nets: a fully Fourier space spherical clebsch–gordan nets:完全フーリエ空間球面 0.79
convolutional neural network. 畳み込みニューラルネットワーク。 0.62
In NeurIPS. NeurIPSに登場。 0.80
[31] Locatello, F., Bauer, S., Lucic, M., Raetsch, G., Gelly, S., Schölkopf, B., and Bachem, O. [31] Locatello, F., Bauer, S., Lucic, M., Raetsch, G., Gelly, S., Schölkopf, B., Bachem, O。 0.79
(2019). Challenging common assumptions in the unsupervised learning of disentangled representations. (2019). 不整合表現の教師なし学習における一般的な仮定を満たす。 0.65
In Chaudhuri, K. and Salakhutdinov, R., editors, Proceedings of the 36th International Conference on Machine Learning, volume 97 of Proceedings of Machine Learning Research, pages 4114–4124. Chaudhuri, K. and Salakhutdinov, R., editors, Proceedings of the 36th International Conference on Machine Learning, Volume 97 of Proceedings of Machine Learning Research, page 4114–4124 0.86
PMLR. [32] Locatello, F., Weissenborn, D., Unterthiner, T., Mahendran, A., Heigold, G., Uszkoreit, J., Dosovitskiy, A., PMLR。 Locatello, F., Weissenborn, D., Unterthiner, T., Mahendran, A., Heigold, G., Uszkoreit, J., Dosovitskiy, A. 0.77
and Kipf, T. (2020). そして、kipf, t. (2020)。 0.73
Object-centric learning with slot attention. スロット注目によるオブジェクト中心学習。 0.66
arXiv preprint arXiv:2006.15055. arXiv preprint arXiv:2006.15055 0.72
[33] Marcos, D., Volpi, M., and Tuia, D. (2016). [33]Marcos, D., Volpi, M., and Tuia, D. (2016)。 0.83
Learning rotation invariant convolutional filters for texture classification. テクスチャ分類のための回転不変畳み込みフィルタの学習 0.78
In 2016 23rd International Conference on Pattern Recognition (ICPR), pages 2012–2017. 2016年の第23回国際パターン認識会議(ICPR)、2012-2017頁。 0.75
IEEE. [34] Masci, J., Meier, U., Ciresan, D., and Schmidhuber, J. IEEE。 [34]Masci, J., Meier, U., Ciresan, D., and Schmidhuber, J. 0.83
(2011). Stacked convolutional auto-encoders for (2011). スタック型畳み込み自動エンコーダ 0.73
hierarchical feature extraction. In ICANN. 階層的特徴抽出。 ICANN所属。 0.73
[35] Matthey, L., Higgins, I., Hassabis, D., and Lerchner, A. [35]Mathey, L., Higgins, I., Hassabis, D., and Lerchner, A. 0.81
(2017). dsprites: Disentanglement testing sprites (2017). dsprites: 絡み合いテスト用スプライト 0.84
dataset. https://github.com/d eepmind/dsprites-dat aset/. データセット。 https://github.com/d eepmind/dsprites-dat aset/ 0.53
[36] Paszke, A., Gross, S., Massa, F., Lerer, A., Bradbury, J., Chanan, G., Killeen, T., Lin, Z., Gimelshein, N., Antiga, L., Desmaison, A., Kopf, A., Yang, E., DeVito, Z., Raison, M., Tejani, A., Chilamkurthy, S., Steiner, B., Fang, L., Bai, J., and Chintala, S. (2019). [36]Paszke, A., Gross, S., Massa, F., Lerer, A., Bradbury, J., Chanan, G., Killeen, T., Lin, Z., Gimelshein, N., Antiga, L., Desmaison, A., Kopf, A., Yang, E., DeVito, Z., Raison, M., Tejani, A., Chilamkurthy, S., Steiner, B., Fang, L., Bai, J., Chintala, S. (2019). 0.85
Pytorch: An imperative style, high-performance deep learning library. Pytorch: 命令型で高性能なディープラーニングライブラリです。 0.77
In Wallach, H., Larochelle, H., Beygelzimer, A., d'Alché-Buc, F., Fox, E., and Garnett, R., editors, Advances in Neural Information Processing Systems 32, pages 8024–8035. Wallach, H., Larochelle, H., Beygelzimer, A., d'Alché-Buc, F., Fox, E., Garnett, R., editors, Advances in Neural Information Processing Systems 32, pages 8024–8035。 0.92
Curran Associates, Inc. Curran Associates, Inc. 0.85
[37] Romero, D. W., Bekkers, E. J., Tomczak, J. M., and Hoogendoorn, M. (2020). [37] Romero, D. W., Bekkers, E. J., Tomczak, J. M., Hoogendoorn, M. (2020)。 0.90
Attentive group equivariant convolutional networks. 注意群同変 畳み込みネットワーク 0.45
In ICML. [38] Romero, D. W. and Hoogendoorn, M. (2020). ICML。 [38] Romero, D. W. and Hoogendoorn, M. (2020)。 0.76
Co-attentive equivariant neural networks: Focusing co-attentive equivariant neural networks:focus 0.88
equivariance on transformations co-occurring in data. データに共起する変換の等価性。 0.68
In ICLR. 11 ICLR。 11 0.69
英語(論文から抽出)日本語訳スコア
[39] Scherer, D., Müller, A., and Behnke, S. (2010). 39] Scherer, D., Müller, A., and Behnke, S. (2010)。 0.79
Evaluation of pooling operations in convolutional architectures for object recognition. オブジェクト認識のための畳み込みアーキテクチャにおけるプール動作の評価 0.79
In Diamantaras, K., Duch, W., and Iliadis, L. S., editors, Artificial Neural Networks – ICANN 2010, pages 92–101, Berlin, Heidelberg. Diamantaras, K., Duch, W., and Iliadis, L. S., editors, Artificial Neural Networks – ICANN 2010, page 92–101, Berlin, Heidelberg 0.83
Springer Berlin Heidelberg. ベルリン・ハイデルベルク出身。 0.62
[40] Simoncelli, E., Freeman, W., Adelson, E., and Heeger, D. (1992). [40] Simoncelli, E., Freeman, W., Adelson, E., and Heeger, D. (1992)。 0.87
Shiftable multiscale transforms. シフト可能なマルチスケール変換。 0.53
IEEE Transactions on Information Theory, 38(2):587–607. IEEE 情報理論に関する取引、38(2):587-607。 0.78
[41] Thomas, N., Smidt, T., Kearnes, S., Yang, L., Li, L., Kohlhoff, K., and Riley, P. (2018). [41] Thomas, N., Smidt, T., Kearnes, S., Yang, L., Li, L., Kohlhoff, K., and Riley, P. (2018). 0.87
Tensor field networks: Rotation-and translation-equivari ant neural networks for 3d point clouds. テンソル場ネットワーク(Tensor field network): 3次元点雲に対する回転および翻訳等価ニューラルネットワーク。 0.59
arXiv preprint arXiv:1802.08219. arXiv preprint arXiv:1802.08219 0.71
[42] Waskom, M. L. (2021). [42] Waskom, M. L. (2021)。 0.89
seaborn: statistical data visualization. seaborn: 統計データの可視化。 0.82
Journal of Open Source Software, 6(60):3021. journal of open source software, 6(60):3021。 0.85
[43] Watters, N., Matthey, L., Burgess, C. P., and Lerchner, A. [43]Watters, N., Matthey, L., Burgess, C. P., Lerchner, A. 0.81
(2019). Spatial broadcast decoder: A simple (2019). 空間放送デコーダ:簡単な 0.77
architecture for learning disentangled representations in vaes. 不整合表現を学習するためのアーキテクチャです 0.64
arXiv preprint arXiv:1901.07017. arXiv preprint arXiv:1901.07017 0.72
[44] Weiler, M. and Cesa, G. (2019a). 44] Weiler, M. and Cesa, G. (2019a). 0.93
General e (2)-equivariant steerable cnns. 一般 e (2)-同変 ステアブル cnns。 0.65
Information Processing Systems, pages 14334–14345. 情報処理システム、14334-14345頁。 0.80
In Advances in Neural [45] Weiler, M. and Cesa, G. (2019b). 神経の進歩において [45] Weiler, M. and Cesa, G. (2019b). 0.77
General E(2)-Equivariant Steerable CNNs. 一般 e(2)-同変ステアブル cnn である。 0.54
In Conference on Neural ニューラル・コンファレンスで 0.45
Information Processing Systems (NeurIPS). 情報処理システム(NeurIPS)。 0.73
[46] Weiler, M., Geiger, M., Welling, M., Boomsma, W., and Cohen, T. S. (2018a). [46]Weiler, M., Geiger, M., Welling, M., Boomsma, W., and Cohen, T. S. (2018a). 0.91
3d steerable cnns: Learning rotationally equivariant features in volumetric data. 3d steerable cnns: 体積データにおける回転同変の特徴を学習する。 0.65
In Advances in Neural Information Processing Systems, pages 10381–10392. 神経情報処理システムの進歩』10381-10392頁。 0.70
[47] Weiler, M., Hamprecht, F. A., and Storath, M. (2018b). [47] Weiler, M., Hamprecht, F. A., and Storath, M. (2018b). 0.97
Learning steerable filters for rotation equivariant cnns. 回転同変cnnに対するステアブルフィルタの学習 0.64
In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages 849–858. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, page 849–858。 0.90
[48] Worrall, D. E., Garbin, S. J., Turmukhambetov, D., and Brostow, G. J. [48]Worrall,D.E.,Garbin, S.J.,Turmukhambetov, D.,Brostow,G.J. 0.74
(2017). Harmonic networks: Deep translation and rotation equivariance. (2017). ハーモニックネットワーク: 深い翻訳と回転等分散。 0.77
In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages 5028–5037. The Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, page 5028–5037。 0.89
[49] Xiao, H., Rasul, K., and Vollgraf, R. (2017). [49]Xiao, H., Rasul, K., Vollgraf, R. (2017)。 0.74
Fashion-mnist: a novel image dataset for benchmarking fashion-mnist:ベンチマークのための新しい画像データセット 0.58
machine learning algorithms. 機械学習アルゴリズム。 0.74
[50] Yadan, O. 50] やだん,o. 0.61
(2019). Hydra - a framework for elegantly configuring complex applications. (2019). Hydra - 複雑なアプリケーションをエレガントに構成するためのフレームワーク。 0.79
Github. [51] Zhang, R. (2019). github。 [51]Zhang, R. (2019)。 0.77
Making convolutional networks shift-invariant again. 畳み込みネットワークを再びシフト不変にする。 0.60
In International Conference on Machine Learning, pages 7324–7334. 国際会議において 機械学習、7324-7334頁。 0.82
[52] Zhao, S., Song, J., and Ermon, S. (2017). [52]Zhao, S., Song, J., and Ermon, S. (2017)。 0.79
Infovae: Information maximizing variational autoencoders. Infovae: 可変オートエンコーダの最大化。 0.62
arXiv preprint arXiv:1706.02262. arXiv preprint arXiv:1706.02262 0.71
12 12 0.85
英語(論文から抽出)日本語訳スコア
A Preliminaries preliminaries (複数形 preliminaries) 0.29
A.1 Group, Coset and Quotient Space A group G is a set of elements equipped with a binary operation (denoted as ·) that satisfies the following group axioms: A.1 Group, Coset and Quotient Space G 群は、以下の群公理を満たす二元演算 (· と表記される) を備えた要素の集合である。 0.89
1. (Closure) For all a, b ∈ G, a · b ∈ G. 2. 1. (開示) すべての a, b ∈ G に対して a · b ∈ G である。 0.84
(Associative) For all a, b, c ∈ G, (a · b) · c = a · (b · c). (結合)すべての a, b, c ∈ g, (a · b) · c = a · (b · c) に対して。 0.84
3. (Identity element) There exists an identity element e in G such that, for any a ∈ G we have 4. 3. (Identity element) G 内に単位元 e が存在して、任意の a ∈ G に対して 4 が成り立つ。 0.82
(Inverse element) For each a ∈ G, there exists an element b ∈ G such that a · b = b · a = e (逆元) 各 a ∈ G に対して、a · b = b · a = e となる元 b ∈ G が存在する。 0.84
e · a = a · e = a. e · a = a · e = a である。 0.91
where e is the identity element. ここで e は単位元です 0.43
The centered dot · can sometimes be omitted if there is no ambiguity. 中心点 · は、曖昧さがなければ省略されることがある。 0.67
In this work, we are mainly interested in symmetry groups where each group element is associated with a symmetry of a pattern, which is a transformation that leaves the pattern invariant. この研究において、我々は主に、各群要素がパターン不変性を残す変換であるパターンの対称性に関連付けられる対称性群に関心を持っている。 0.81
In symmetry groups, the binary operation corresponds to composition of transformations. 対称群では、二元演算は変換の合成に対応する。 0.65
A subset H contained within G is a subgroup of G if it forms a group on its own under the same binary operation. G に含まれる部分集合 H が G の部分群であるとは、G が同じ二項演算の下で自身で群を形成することである。
訳抜け防止モード: g に含まれる部分集合 h が g の部分群であれば 同じ二項演算の下で、単独でグループを形成する。
0.81
Given a subgroup H and an arbitrary group element g ∈ G, one can define left cosets of H as follows: 部分群 H と任意の群元 g ∈ G が与えられたとき、H の左余集合を次のように定義することができる。
訳抜け防止モード: 部分群 H と任意の群元 g ∈ G が与えられる。 H の左余集合を次のように定義できる。
0.83
gH = {g · h | h ∈ H} gH = {g · h | h ∈ H} 0.85
The left cosets of H form a partition of G for any choice of H, i.e. H の左余集合は H の任意の選択に対して G の分割を形成する。 0.83
the union of all cosets is G and all cosets defined above are either identical or have empty interception. すべての余集合の和は G であり、上記のすべての余集合は同じか空の割り込みを持つ。 0.61
The set of all left cosets is called the quotient space and is denoted as G/H = {gH | g ∈ G}. すべての左余集合の集合は商空間と呼ばれ、 G/H = {gH | g ∈ G} と表される。 0.82
As an example, all integers Z under addition forms a group and all multiples of n, denoted as nZ is a subgroup of Z. 例えば、加法下のすべての整数 Z は群を形成し、nZ と表記されるすべての n の倍数は Z の部分群である。 0.82
For any integer k ∈ Z, the set nZ + k containing all integers that has the remainder as k divided by n, is a coset of nZ. 任意の整数 k ∈ Z に対して、残りの k を n で割ったすべての整数を含む集合 nZ + k は nZ の余集合である。 0.86
There are n distinct cosets like this, and they form the quotient space Z/nZ. このような n 個の異なる余集合が存在し、商空間 Z/nZ を形成する。 0.69
A.2 Group Homomorphism, Group Actions and Group Equivariance Given two groups (G,·G) and (H,·H ), a group homomorphism from G to H is function f : G → H such that for any u, v ∈ G A.2 群準同型、群作用および群等分散 2 つの群 (G,·G) と (H,·H ) が与えられたとき、G から H への群準同型は任意の u, v ∈ G に対して関数 f : G → H である。 0.80
f (u ·G v) = f (u) ·H f (v). f (u ·G v) = f (u) ·H f (v) である。 0.91
It is a special mapping between two groups that is compatible with group structures. これは群構造と互換性のある2つの群の間の特別な写像である。 0.59
If f is an one-to-one mapping, we call it a group isomorphism. f が 1 対 1 の写像であれば、群同型 (group isomorphism) と呼ぶ。 0.66
Two groups G1 and G2 are isomporphic if there is an isomorphism between them, and this is written as G1 A group action is a group homomorphism from a given group G to the group of transformations on a space X. 2つの群 g1 と g2 がイソムポルフィック(isomporphic)であるとは、それらの間に同型が存在するときであり、群作用は与えられた群 g から空間 x 上の変換群への群準同型である。 0.77
We say the group G acts on the space X and the transformation corresponding to g ∈ G is a bijection on X that maps x to g · x. 群 G は空間 X に作用し、g ∈ G に対応する変換は x を g · x に写す X 上の単射である。 0.70
If the group actions of G on spaces X and Y are both defined, a function f : X → Y is said to be group equivariant if 空間 x と y 上の g の群作用がともに定義されるならば、函数 f : x → y が群同値であることは同値である。
訳抜け防止モード: 空間 X と Y 上の G の群作用が共に定義される。 函数 f : X → Y が群同変であるとは、もしも
0.83
∼= G2. g · f (x) = f (g · x) はg2。 g · f (x) = f (g · x) 0.73
A.3 Homogeneous Spaces and Lifting Feature Maps If the action of a group G on the space X is defined, and the action is transitive (i.e. A.3 等質空間とリフティング特徴写像 空間 X 上の群 G の作用が定義され、その作用が推移的である場合(すなわち)。 0.80
∀x, x(cid:48) ∈ X,∃g ∈ G, s.t. は、x(cid:48) ∈ X,\g ∈ G, s.t である。 0.63
x(cid:48) = g · x), we refer to X as being a homogeneous space for G. There is a natural one-to-one correspondence between the homogeneous space X and disjoint subsets of the group G. Given an arbitrary origin x0 ∈ X, H = {g ∈ G|g · x0 = x0} is a subgroup of G, where H is called the stabiliser of the origin. x(cid:48) = g · x) は、x を g の斉次空間とする: 等質空間 x と群 g の非連結部分集合の間に自然な一対一対応が存在する: 任意の原点 x0 ∈ x が与えられたとき、h = {g ∈ g|g · x0 = x0} は g の部分群であり、h は原点の部分群と呼ばれる。 0.77
Because the group action on X is transitive, every element x ∈ X corresponds to a left coset in s(x; x0)H ∈ G/H, where s(x; x0) is (any) group element that transforms x0 to x. x 上の群作用は推移的であるので、すべての元 x ∈ x は s(x; x0)h ∈ g/h における左余集合に対応し、ここで s(x; x0) は x0 を x へ変換する(任意の)群元である。 0.71
It can be shown that for x, x(cid:48) ∈ X, x (cid:54)= x(cid:48), s(x; x0) and s(x(cid:48); x0) are disjoint. x, x(cid:48) ∈ X, x(cid:54)= x(cid:48), s(x; x0) および s(x(cid:48); x0) が不同であることを示すことができる。 0.85
13 13 0.85
英語(論文から抽出)日本語訳スコア
Because spatial data is often represented as functions on the homogeneous space fX : xi (cid:55)→ fi, while lifting-based group equivariant neural networks operate on feature maps defined on the group, there is usually an operation called lifting, that maps the data to the feature space of functions on the group, before applying equivariant modules. 空間データは等質空間 fx : xi (cid:55)→ fi 上で関数として表現されることが多いが、昇降型群同変ニューラルネットワークは群上で定義された特徴写像上で操作される。
訳抜け防止モード: なぜなら空間データは、しばしば同次空間 fX : xi ( cid:55) → fi 上の関数として表されるからである。 while lifting - based group equivariant neural network operate on feature map on the group, 集団上の関数の特徴空間にデータをマッピングする リフトと呼ばれる操作があります 等変加群を適用する前に
0.85
Using the correspondence between X and the quotient space G/H, we can map each pair (xi, fi) to the set {(g, fi)|g ∈ s(xi; x0)H}. X と商空間 G/H との対応を利用して、各対 (xi, fi) を集合 {(g, fi)|g ∈ s(xi; x0)H} に写すことができる。 0.80
It can be seen as lifting the input feature map fX : xi (cid:55)→ fi to the feature map LIFT(fX) : g (cid:55)→ fi for g ∈ s(xi; x0)H. In this work, we assume all input feature maps have been lifted to feature maps on the group. 入力特徴写像 fx : xi (cid:55)→ fi を特徴写像 lift(fx) : g (cid:55)→ fi for g ∈ s(xi; x0)h に持ち上げることができる。
訳抜け防止モード: 入力特徴写像 fx : xi ( cid:55)→ fi を特徴写像 lift(fx ) : g ( cid:55)→ fi for g ∈ s(xi ; x0)h に持ち上げることができる。 すべての入力機能マップがグループ内のフィーチャーマップに拡張されたと仮定します。
0.79
A.4 Wallpaper Groups A.4 壁紙グループ 0.73
Wallpaper groups categorise symmetries of repetitive patterns on a 2D plane. 壁紙群は2次元平面上の繰り返しパターンの対称性を分類する。 0.69
For simplicity, we only considered 3 different types of wallpaper symmetry groups p1, p4, and p4m in this work following [5]. 単純性のために、壁紙対称性群 p1, p4, p4m の3つの異なるタイプしか考慮しなかった。 0.74
These groups are named using the crystallographic notation, where p standards for primitive cells, the next digit indicates the highest order of rotational symmetries, and m stands for mirror reflection. これらの群は、原始細胞のp標準、次の桁は回転対称性の最高位、mはミラー反射を表す結晶記法を用いて命名される。 0.74
All symmetries contained in these groups can be deduced from their name: これらのグループに含まれるすべての対称性は、名前から推測することができる。 0.63
• p1: All 2D integer translations. • p1: 全2次元整数変換。 0.76
• p4: All compositions of 2D integer translations and rotations by a multiple of 90 degrees. • p4: 2次元整数変換と回転のすべての組成を90度の倍数で表す。 0.85
• p4m: All compositions of elements in p4 and the mirror reflection. • p4m:p4の要素とミラー反射のすべての構成。 0.88
All three groups p1, p4, and p4m can be constructed from basic additive groups of integers Z and cyclic groups Cn using the inner semi-direct product. すべての3つの群 p1, p4, p4m は整数 Z と巡回群 Cn の基本加法的群から内部半直積を用いて構成することができる。 0.69
Given a group G with a normal subgroup N (i.e. 正規部分群 N (i) を持つ群 G が与えられる。 0.81
∀n ∈ N, g ∈ G, gng−1 ∈ N), a subgroup H (not necessarily a normal subgroup), if G is the product of subgroups G = N H = {nh|n ∈ N, h ∈ H}, and N ∩ H = {e}, we say G is a inner semi-direct product of N and H, written as G = N (cid:111) H. Using semi-direct product, p1, p4, and p4m can be expressed as: G を部分群 G = N H = {nh|n ∈ N, h ∈ H} の積とし、N の H = {e} を N と H の内部半直積とし、G = N (cid:111) H と書く。
訳抜け防止モード: は、n ∈ N, g ∈ G, gng−1 ∈ N )。 部分群 H (必ずしも正規部分群ではない) が、G が部分群 G = N H = {nh|n ∈ N, h ∈ H } と N は H = { e } である。 G は N と H の内半直積であると言う。 G = N ( cid:111 ) H と書く。 p1,p4,p4mは:と表せる。
0.83
p1 ∼= Z2 p4 ∼= Z2 (cid:111) C4 p4m ∼= Z2 (cid:111) (C4 (cid:111) C2) p1=Z2=Z2=Z2 (cid:111) C4=Z2 (cid:111) (cid:111) C2 (cid:111) C2 0.58
(11) If G ∼= N (cid:111) H, the binary and inverse operations for G can be determined from its subgroups N and H. We represent group elements in G as a tuple (n, h) where n ∈ N and h ∈ H. Let φh(n) = hnh−1, the binary operation on G can be given by: n ∈ n と h ∈ h であるようなタプル (n, h) として g の群元を表す。 φh(n) = hnh−1 とすると、g 上の二項演算は次のようになる。
訳抜け防止モード: (11)if g = n (cid:111 ) h, g の双対および逆演算はその部分群 n と h から決定できる。 ここで n ∈ n と h ∈ h は φh(n ) = hnh−1 とする。 g 上の二項演算は :
0.64
(n1, h1) · (n2, h2) = (n1φh1(n2), h1h2) and the inverse for element in G can also be derived from the above: (n1, h1) · (n2, h2) = (n1φh1(n2), h1h2) および G の元の逆元も上記から導かれる。 0.81
(n, h)−1 = (φh−1(n−1), h−1) (n, h)−1 = (φh−1(n−1), h−1) 0.82
These properties can be used to simplify the implementation of the considered groups p1, p4, and p4m following the decomposition in Equation (11), and the operations for basic groups Z and Cn are easy to implement. これらの性質は、方程式 (11) の分解後に考慮される群 p1, p4, p4m の実装を単純化するために利用することができ、基本群 z と cn の演算は容易に実装できる。 0.72
A.5 Feature Maps in G-CNNs a.5 g-cnnsの機能地図 0.55
A general mathematical framework is introduced in [9] to specify convolutional feature spaces used in G-CNNs, and feature maps are treated as fields over a homogeneous space. G-CNNで使用される畳み込み特徴空間を指定するために、[9]に一般的な数学的枠組みを導入し、特徴写像を同次空間上のフィールドとして扱う。 0.68
It covers most previous works on equivariant neural networks including [5, 7, 10, 44]. 5, 7, 10, 44]を含む同変ニューラルネットワークに関するこれまでのほとんどの研究をカバーしている。 0.57
Under this framework, one way to represent fields is through constrained functions defined on the whole symmetry group, also known as Mackey functions [9]. この枠組みの下では、体を表現する一つの方法は、対称性群全体、またはマッキー函数 [9] で定義される制約函数を通して行われる。 0.63
Formally, let G be a symmetry group, and H ≤ G together with G determines the homogeneous space G/H. 形式的には、G を対称性群とし、H ≤ G を G と共に同次空間 G/H とする。 0.78
For a group representation (ρ, V ) of H, the action of the whole group G on fields can be described by an induced representation π = IndG H ρ, whose realisation depends on how we represent these fields. H の群表現 (ρ, V ) に対し、体上の群 G 全体の作用は誘導表現 π = IndG H ρ によって記述できる。
訳抜け防止モード: h の群表現 (ρ, v ) に対して 体上の群 g 全体の作用は、誘導表現 π = indg h ρ によって記述できる。 その実現は、これらの分野をどのように表現するかによって異なります。
0.69
Below we specify the feature space IM 4 for the Mackey function field representation discussed in [8, 9]: 以下、[8, 9]で議論されるmackey関数フィールド表現の特徴空間 im 4 を指定する。 0.80
IM = {f : G → V |f (gh) = ρ(h−1)f (g),∀g ∈ G, h ∈ H} IM = {f : G → V |f (gh) = ρ(h−1)f (g), g ∈ G, h ∈ H} 0.90
(12) 4IM corresponds to IG in [9] (12) 4IMは[9]のIGに対応する 0.79
14 14 0.85
英語(論文から抽出)日本語訳スコア
which forms a vector space. ベクトル空間を形成します 0.66
Moreover, when ρ is a regular representation, which is the implicit choice of [5, 11, 12, 18, 27, 33], fields can also be represented as unconstrained functions on G and the feature space can be written as さらに、ρ が正規表現であり、[5, 11, 12, 18, 27, 33] の暗黙の選択であるとき、体は g 上の非拘束函数としても表現でき、その特徴空間は書ける。 0.73
IG = {f : G → V (cid:48)} IG = {f : G → V (cid:48)} 0.98
with V (cid:48) being a different vector space from V . V (cid:48) は V と異なるベクトル空間である。 0.87
If ρ is a regular representation. ρ が正則表現であるとき。 0.74
Feature maps are represented as functions on G in both IM and IG, even though IM have additional conditions given in Equation (12). 特徴写像は IM と IG の両方において G 上の関数として表されるが、IM には方程式 (12) で与えられる追加条件がある。 0.70
Moreover, the induced representation π = IndG H ρ for them have the same form: さらに、それらに対する誘導表現 π = IndG H ρ は同じ形式を持つ。 0.79
[π(u)f ](g) = f (u−1g) [π(u)f ](g) = f(u−1g) 0.96
B Equivariant Subsampling and Upsampling B 変種サブサンプリングとアップサンプリング 0.64
B.1 Constructing Φ In Section 2.3, we provide a simple construction of the equivariant map Φ : IG → G/K which gives the sampling indexes. B.1 第2.3節において、同変写像の簡単な構成を提供する: IG → G/K であり、サンプリング指標を与える。 0.65
The construction is a valid one if the argmax is unique. argmax が一意であれば、構成は有効なものである。 0.66
In practice one can insert arbitrary equivariant layers to f before and after we take the norm (cid:107) · (cid:107)1 to avoid a non-unique argmax (see Appendix E). 実際には、標準 (cid:107) · (cid:107)1 の前後に任意の同変層を f に挿入して、非特異な argmax を避けることができる(Appendix E を参照)。 0.68
However, in theory, there could be cases that the argmax is always non-unique. しかし、理論上、argmax が常に非ユニキであるような場合もある。 0.71
We discuss this case below and provide a more complex construction for it. 以下に、このケースについて論じ、さらに複雑な構成を提供する。 0.61
One cannot avoid a non-unique argmax in Equation (7) when the input feature map f ∈ IG has inherent symmetries, i.e. 入力特徴写像 f ∈ IG が固有の対称性を持つとき、方程式 (7) の非特異な argmax は避けられない。 0.76
there exists u ∈ G, u (cid:54)= e, such that f = π(u)f. Assuming there is a unique argmax g∗ such that g∗ = arg maxg∈G (cid:107)f (g)(cid:107)1, we would have: u ∈ G, u (cid:54) = e が存在して、f = π(u)f が成り立つ。 g∗ = arg max g∗ が存在して g∗ = argmax G (cid:107)f (g)(cid:107)1 となると、次のようになる。 0.72
f (u · g∗) = f (g∗) = max g∈G f (u · g∗) = f (g∗) = max g∂G 0.89
(cid:107)f (g)(cid:107)1 (cid:107)f (g)(cid:107)1 0.88
Therefore u · g∗ is also a valid argmax, hence the argmax is not unique. したがって u · g∗ もまた有効 argmax であり、したがって argmax は一意ではない。 0.79
For example, when f is a feature map representing a center-aligned circle, we would have f = π(u)f, where u ∈ O(2) is associated with an arbitrary rotation around the center. 例えば、f が中心に整った円を表す特徴写像であるとき、f = π(u)f とすると、u ∈ o(2) は中心の周りの任意の回転に関連付けられる。 0.76
One cannot find a unique argmax g∗ for this example, because the feature map would take the same function values at u · g∗. この例では、特徴写像が u · g∗ で同じ関数値を取るので、特異な argmax g∗ を見つけることはできない。 0.80
Under the circumstance described above, the argmax operation would return a set of elements where each one attains the function’s largest values. 上述の状況下では、argmax演算は、各要素が関数の最大値に達するような一連の要素を返す。 0.78
We denote it as S∗ = arg maxg∈G (cid:107)f (g)(cid:107)1, where S∗ is a subset of G. To obtain the sampling index (a coset) pK, we sample uniformly from the set S∗, and let Φ outputs pK where p ∼ S∗. ここで、S∗ は G の部分集合であり、サンプリング指標 (coset) pK を得るには、集合 S∗ から一様にサンプリングし、p > S∗ が pK を出力する。
訳抜け防止モード: S∗ = arg maxg~G ( cid:107)f ( g)(cid:107)1, S∗ は G の部分集合であり、サンプリング指標 (coset ) pK を得る。 集合 S∗ から一様にサンプリングし、p を S∗ とする pK を出力する。
0.81
In this case, the map Φ is still equivariant in distribution even though it is now a stochastic map. この場合、現在その写像は確率写像であるにもかかわらず、分布においてまだ同変である。 0.58
Note that it is possible to consider more sophisticated solutions or even use learnable modules for Φ, which we leave for future work. より洗練されたソリューションを考えたり、学習可能なモジュールを φ に使用することも可能であることに注意してください。 0.63
B.2 Multiple Subsampling Layers b.2多重サブサンプリング層 0.64
Translation equivariant subsampling We can stack convolutional and translation equivariant subsampling layers to construct exactly translation equivariant CNNs. 翻訳同変部分サンプリング 我々は、正確に翻訳同変CNNを構築するために畳み込みおよび翻訳同変部分サンプリング層を積み重ねることができる。
訳抜け防止モード: スタック畳み込みおよび変換同変部分サンプリング層における変換同変部分サンプリング 正確な翻訳同変cnnを構成する。
0.54
Unlike standard CNNs, each translation equivariant subsampling layer with a scale factor ck outputs a subsampling index ik in addition to the feature maps. 標準cnnとは異なり、スケールファクタckを持つ各変換同変部分サンプリング層は、特徴マップに加えてサブサンプリングインデックスikを出力する。 0.70
Hence the equivariant representation output by the CNN with L subsampling layers is a final feature map fL and a L-tuple of sampling indices (i1, ..., iL). したがって、CNNがLサブサンプリング層で出力する同変表現は、最終的な特徴写像 fL とサンプリング指標の L-タプル (i1, ..., iL) である。 0.74
In the multi-layer case, the l-th subsampling layer takes in a feature map f on(cid:81)l−1 k=1 ckZ/(cid:81)l 1) a feature map on(cid:81)l k=1 ckZ and outputs: k=1 ckZ ∼= Z/clZ l(cid:89) k=1 ck)Z(cid:107)f (x)(cid:107)1, 多層膜の場合、l 番目のサブサンプリング層は、(cid:81)l−1 k=1 ckZ/(cid:81)l k=1 ckZ 上の特徴写像 f 上の特徴写像を持ち、出力する: k=1 ckZ = Z/clZ l(cid:89) k=1 ck)Z(cid:107)f (x)(cid:107)
訳抜け防止モード: 多重層の場合、l - th のサブサンプリング層は、(cid:81)l−1 k=1 ckZ/(cid:81)l 1 のフィーチャーマップ f を取り込む。 および出力: k=1 ckZ = Z / clZ l(cid:89 ) k=1 ck)Z(cid:107)f (x)(cid:107)1,
0.86
k=1 ckZ and 2) a subsampling index il ∈(cid:81)l−1 k=1 ckZ と 2 の部分サンプリング指数 il ∈(cid:81)l−1 0.72
ck) · il = pl = Φc(f ) = mod(arg maxx∈((cid:81)l−1 ck) · il = pl = φc(f ) = mod(arg maxxservlet((cid:81) l−1 0.90
l−1(cid:89) l−1(cid:89) 0.65
the support of f from(cid:81)l−1 f の (cid:81)l−1 からの支持 0.79
This is equivalent to treating the input feature map f as a feature map f(cid:48) defined on Z (i.e. これは入力特徴写像 f を z 上で定義される特徴写像 f(cid:48) として扱うことと等価である。 0.65
mapping k=1 ck), and the subsampling layer outputting: 1) a feature map on clZ and 2) a subsampling index il ∈ Z/clZ given by: k=1 ck) をマッピングし、サブサンプリング層が出力する: 1) clZ 上の特徴写像と 2) サブサンプリングインデックス il ∈ Z/clZ を出力する。 0.76
k=1 ckZ to Z via division by(cid:81)l−1 k=1 ckZ to Z by (cid:81)l−1 0.85
k=1 ck) given by: k=1 ck) 下記の通り。 0.64
( k=1 il = mod(arg maxx∈Z(cid:107)f(cid:48)( x)(cid:107)1, cl) (k=1) il = mod(arg maxxftpz(cid:107)f(c id:48)(x)(cid:107)1, cl) 0.71
15 15 0.85
英語(論文から抽出)日本語訳スコア
L(cid:88) L(cid:88) l(cid:88) l(cid:88) 0.76
l−1(cid:89) l−1(cid:89) 0.65
ck) · il Hence the tuple (i1, ..., iL) that contains the sampling indices of all layers can be expressed equivalently as a single integer: ck)·il したがって、全ての層のサンプリングインデックスを含むタプル (i1, ..., il) は1つの整数として等価に表現できる。 0.78
req = pl = req = pl = 0.85
l=1 l=1 ( k=1 l=1 l=1 (k=1) 0.57
where req ∈ Z/((cid:81)L would become mod(req + t,(cid:81)L ここで req ∈ Z/((cid:81)L は mod(req + t,(cid:81)L となる 0.85
k=1 ck)Z. Note that the conversion between req and (i1, ..., iL) can be seen as the conversion between mixed radix notation and decimal notation. k=1 ck)Z。 req と (i1, ..., iL) の間の変換は、混合基数記法と十進記法の間の変換と見なすことができる。 0.80
Mixed radix notation is a mixed base numeral system where the numerical base varies from position to position, as opposed to base-n systems that have the same base for all positions5. 混合基数記法(mixed radix notation)は、すべての位置について同じ基数を持つbase-nシステムとは対照的に、数値ベースが位置ごとに異なる混合基数記法である。 0.66
Thus there is an one-to-one correspondence between the two. したがって、両者の間には1対1の対応がある。 0.52
Moreover, when the input feature map is translated to the right by t ∈ Z, req k=1 ck). さらに、入力特徴写像が t ∈ z によって右へ変換されるとき、req k=1 ck)。 0.75
See the statement of this result for the general group case in 一般群の場合のこの結果のステートメントを参照。 0.59
Proposition B.1 and its proof in Appendix D.3. B.1 と Appendix D.3 の証明。 0.76
Group equivariant subsampling Similarly, given an input feature map f ∈ IG, we can construct CNNs/G-CNNs with multiple equivariant subsampling layers by specifying a sequence of nested subgroups G = G0 ≥ G1 ≥ ··· ≥ GL. 群同変部分サンプリング 同様に、入力特徴写像 f ∈ IG が与えられたとき、ネストされた部分群の列 G = G0 ≥ G1 ≥ ··· ≥ GL を指定して、複数の同変部分サンプリング層を持つ CNN/G-CNN を構築することができる。
訳抜け防止モード: 群同変部分サンプリング 同様に、入力特徴写像 f ∈ IG が与えられる。 複数の同変サブサンプリング層でCNN/G-CNNを構築できる ネストした部分群の列 G = G0 ≥ G1 ≥ · · · · ≥ GL を指定する。
0.68
The l-th subsampling layer takes in a feature map on Gl−1, outputs a feature map on Gl and a sampling index plGl ∈ Gl−1/Gl. l番目のサブサンプリング層は、Gl−1上の特徴写像を受け取り、Gl上の特徴写像とサンプリングインデックス plGl ∈ Gl−1/Gl を出力する。 0.65
Formally, the l-th subsampling layer can be written as: 正式には、l-thサブサンプリング層は次のように書くことができる。 0.49
Sb↓Gl−1 Gl Sb\Gl-1 Gl 0.57
: IGl−1 → IGl × Gl−1/Gl : IGl−1 → IGl × Gl−1/Gl 0.63
The equivariant representation output by the CNNs/G-CNNs with L subsampling layers is a feature map in fL ∈ GL and a L-tuple (p1G1, p2G2, . L の部分サンプリング層を持つ CNN/G-CNN によって出力される同変表現は fL ∈ GL における特徴写像であり、L-タプル (p1G1, p2G2, ) である。 0.57
. . , pLGL). . . pLGL)であった。 0.78
Similar to the 1D translation case, the sampling index tuple (p1G1, p2G2, . 1D翻訳の場合と同様、サンプリングインデックスタプル (p1G1, p2G2, )。 0.69
. . , pLGL) can be expressed equivalently as a single element in the quotient space G/GL: . . , pLGL) は商空間 G/GL の1つの元として等価に表現できる。 0.80
(13) where ¯pl denote the coset representive for the quotient space Gl−1/Gl. (13) 商空間 Gl−1/Gl の余集合表現を表す。 0.75
ν is a bijection from req to the tuple, whose inverse can be computed by the following recursive procedure: ν は req からタプルへの単射であり、その逆は次の再帰的手順によって計算できる。 0.75
req = (¯p1 ¯p2 . req = (p1 ) である。 0.69
. . ¯pL)GL = ν(p1G1, p2G2, . . . pL)GL = ν(p1G1, p2G2, 。 0.79
. . , pLGL) . . ,pLGL)。 0.85
(p(cid:48) 1G1, p(cid:48) (p(cid:48)1G1,p(cid: 48) 0.77
2G2, . . . , p(cid:48) 2G2。 . . , p(cid:48) 0.85
p(cid:48) 1GL = req l = ¯p(cid:48)−1 p(cid:48) p(cid:48) 1GL = req l = >p(cid:48)−1 p(cid:48) 0.79
l−1 · p(cid:48) l−1 LGL) = ν−1(req) l−1 · p(cid:48) l−1 LGL) = ν−1(req) 0.77
(14) Proposition B.1. (14) 提案b.1。 0.68
ν−1 is the inverse of ν, hence ν is bijective. ν−1 は ν の逆数なので、ν は単射である。 0.75
And ∀u ∈ G we have: u · ν(p1G1, p2G2, . u · ν(p1G1, p2G2, ) である。 0.67
. . , pLGL) = ν(u · (p1G1, p2G2, . . . , pLGL) = ν(u · (p1G1, p2G2, )。 0.81
. . , pLGL)). . . ,pLGL)。 0.78
C Group Equivariant Autoencoders C群同変オートエンコーダ 0.59
In Appendix B.2 we discussed that we can stack multiple subsampling layers by specifying a sequence of nested groups G = G0 ≥ G1 ≥ ··· ≥ GL, and the CNN/G-CNNs with L subsampling layers would produce a feature map on GL and a tuple zeq = (p1G1, p2G2, . Appendix B.2 では、ネストした群 G = G0 ≥ G1 ≥ ··· ≥ GL の列を指定して複数のサブサンプリング層を積み重ねることができ、L のサブサンプリング層を持つ CNN/G-CNN は GL 上の特徴写像とタプル zeq = (p1G1, p2G2, ) を生成する。 0.70
. . , pLGL). . . pLGL)であった。 0.78
Furthermore, we know from Proposition B.1 that there is an one-to-one correspondence between the tuple representation zeq and the single group element representation req = ν(zeq) ∈ G/GL. さらに、命題 b.1 から、タプル表現 zeq と単一群要素表現 req = ν(zeq) ∈ g/gl の間に一対一対応があることが分かる。 0.80
For group equivariant autoencoders, we specify a sequence of subgroups but with GL = {e}. 群同変オートエンコーダに対しては、部分群の列を GL = {e} で指定する。 0.66
In this case, req would simply become a group element in G. And the group action simplifies to left-multiplying the corresponding group elements. この場合、req は単に G の群要素となり、群作用は対応する群要素の左乗算を単純化する。 0.74
Although one can simply use the tuple output by the encoder to perform upsampling in the decoder (and hence use the same sequence of nested subgroups), this is not strictly necessary as one can use a different sequence of nested subgroups for the decoder and obtain the tuple using the decomposition procedure in Equation (14). エンコーダによるタプル出力を使用してデコーダでのアップサンプリングを行うことができる(従って、ネストした部分群と同じシーケンスを使用する)が、デコーダのためにネスト化された部分群の異なるシーケンスを使うことができるため、厳密には必要ではない。
訳抜け防止モード: エンコーダが出力するタプルを使ってデコーダのアップサンプリングを行うこともできる。 従って、ネストされたサブグループの同じシーケンスを使用する)、これは厳密には不要であり、デコーダのためにネストされたサブグループの異なるシーケンスを使用することができる。 Equation (14 ) の分解手順を用いてタプルを得る。
0.65
Moreover, for more efficient implementation of GAEs, one does not need to pass through Φ in Equation (7) for every subsampling layer. さらに、GAEのより効率的な実装には、すべてのサブサンプリング層に対して方程式 (7) で を通す必要はない。 0.72
It would suffice to obtain the tuple of subsampling indexes from the first subsampling layer using: 最初のサブサンプル層から以下のサブサンプルインデックスのタプルを取得するのに十分です。 0.68
(p1G1, p2G2, . (p1G1,p2G2,。 0.61
. . , pLGL) = ν−1(arg max g∈G . . , pLGL) = ν−1(arg max g∂G) 0.80
(cid:107)f (g)(cid:107)1) (cid:107)f (g)(cid:107)1) 0.90
(15) 5A commonly used example of mixed radix notation is to express time, where e g 12:34:56 has a base of 24 (15) 5a 混合基数表記の一般的な例は時間の表現であり、e g 12:34:56 は 24 の基数を持つ。 0.76
for the hour digit, base 60 for the minute digit and base 60 for the second digit. 時間桁では、ベース60は分桁、ベース60は2桁である。 0.61
16 16 0.85
英語(論文から抽出)日本語訳スコア
D Proofs D.1 Proof of Lemma 2.1 (See page 5) Lemma 2.1. π(cid:48) defines a valid group action of G on the space IK × G/K. D 証明 D.1 Proof of Lemma 2.1 (See page 5) Lemma 2.1. π(cid:48) は空間 IK × G/K 上の G の有効群作用を定義する。 0.72
Proof. Since ¯p and up are coset representives for pK and (up)K, we can let p = ¯pkp, up = upkup, where kp, kup ∈ K. From Equation (6), note that ¯p(cid:48) = up = upk−1 証明。 p と up は pK と (up)K の余集合表現なので、p = spkp, up = upkup, where kp, kup ∈ K. from Equation (6), to sp(cid:48) = up = upk−1. 0.69
up . Hence (16) Hence π(cid:48)(u) (as defined in Equation (6)) defines a transformation from the space IK × G/K to itself. 上だ そのため (16) なので π(cid:48)(u) (方程式 (6) で定義される) は空間 ik × g/k からそれ自身への変換を定義する。 0.63
To prove π(cid:48) is a group action, we would like to show that for all u, u(cid:48) ∈ G π(cid:48) が群作用であることを証明するために、すべての u, u(cid:48) ∈ G に対して、 0.80
¯p(cid:48)−1u¯p = (upk−1 ~p(cid:48)−1u ~p = (upk−1) 0.51
up )−1u(pk−1 p ) = kupp−1u−1upk−1 = kupk−1 up )−1u(pk−1 p ) = kupp−1u−1upk−1 = kupk−1 0.54
p ∈ K p Let [f(cid:48) Equation (6), we have p ∈ K p f(cid:48) 方程式 (6) にしましょう。 0.79
b, p(cid:48)K] = π(cid:48)(u)[fb, pK] and [f(cid:48)(cid:48) b, p(cid:48)K] = π(cid:48)(u)[fb, pK], [f(cid:48)(cid:48) 0.96
b , p(cid:48)(cid:48)K] = π(cid:48)(u(cid:48)u) [fb, pK], by the definition of π(cid:48) in b , p(cid:48)(cid:48)K] = π(cid:48)(u(cid:48)u) [fb, pK], by the definition of π(cid:48) in 0.98
π(cid:48)(u(cid:48))( π(cid:48)(u)[fb, pK]) = π(cid:48)(u(cid:48)u) [fb, pK] π(cid:48)(u(cid:48))( π(cid:48)(u)[fb, pK]) = π(cid:48)(u(cid:48)u) [fb, pK] 0.99
p(cid:48)(cid:48)K = ((u(cid:48)u)p)K = u(cid:48)(upK) = u(cid:48)(p(cid:48)K ) p(cid:48)(cid:48)K = ((u(cid:48)u)p)K = u(cid:48)(upK) = u(cid:48)(p(cid:48)K ) 0.91
f(cid:48)(cid:48) b = π(¯p(cid:48)(cid:48)−1(u(cid:48)u)¯p)fb = π(¯p(cid:48)(cid:48)−1u(cid:48) ¯p(cid:48))π(¯p(cid:48)−1u¯p)fb = π(¯p(cid:48)(cid:48)−1u(cid:48) ¯p(cid:48))f(cid:48) b. f(cid:48)(cid:48)(ci d:48)(cid:48)−1(u(cid:48)u)fb = π( π(cid:48)(cid:48)(cid :48)−1u(cid:48)(cid:48)(c id:48)(cid:48)−1u(cid:48))π( πp(cid:48)(cid:48)(ci d:48)(cid:48)−1u(cid:48)f(cid:48)b 0.75
and Hence It is easy to also check that そして そのため それを確認するのも簡単です 0.72
[f(cid:48)(cid:48) b , p(cid:48)(cid:48)K] = π(cid:48)(u(cid:48))[f(cid:48) [f(cid:48)(cid:48) b , p(cid:48)(cid:48)K] = π(cid:48)(u(cid:48))[f(cid:48) 0.88
b, p(cid:48)K] b, p(cid:48)K] 0.96
[fb, pK] = π(cid:48)(e)[fb, pK] [fb, pK] = π(cid:48)(e)[fb, pK] 0.89
Therefore π(cid:48) defines a valid group action. したがって π(cid:48) は有効な群作用を定義する。 0.63
D.2 Proof of Proposition 2.2 (See page 5) Proposition 2.2. D.2 Proof of Proposition 2.2 (See page 5) Proposition 2.2 0.84
If the action of group G on the space IG and IK × G/K are specified by π, π(cid:48) (as defined in Equations (3) and (6)), and Φ : IG → G/K is an equivariant map, then the operations Sb↓G K as defined in Equations (4) and (5) are equivariant maps between IG and IK × G/K. 空間 IG と IK × G/K 上の群 G の作用が π, π(cid:48) (Equations (3) と (6) で定義される) で指定され、かつ π : IG → G/K が同変写像であれば、Equations (4) と (5) で定義される演算 Sb\G K は IG と IK × G/K の間の同変写像である。 0.87
Proof. We first define a restrict operation on f ∈ IG and an extend operation on f1 ∈ IK: 証明。 まず、f ∈ IG 上の制限演算と f1 ∈ IK 上の拡張演算を定義する。 0.70
K and Su↑G f↓G f1↑G K と Su'G f1 = f1。 0.49
K(g) = K(k) = f (k), K(g) = k(k) = f(k) である。 0.84
(cid:26)f1(g) (cid:26)f1(g) 0.86
0 k ∈ K g ∈ K g /∈ K 0 k ∈ K g ∈ K g /∂ K 0.87
K ∈ IK and f1↑G K ∈ IK と f1-G 0.72
where f↓G Recall that s : G/K → G is a function choosing a coset representive ¯p for each coset pK. ここで s : G/K → G は、各余集合 pK に対して、余集合表現 pp を選択する関数である。 0.66
Using the restrict operation, the subsampling operation Sb↓G K(f ; Φ) in Equation (4) can equivalently be described as: 制限演算を用いると、方程式 (4) における部分サンプリング演算 Sb\G K(f ; s) は、次のように記述できる。 0.69
K ∈ IG. pK = Φ(f ) fb = [π(¯p−1)f ]↓G K K(f ; Φ) K ∈ IG。 pK = s(f ) fb = [π( >p−1)f ] > G K K(f ; ; ; ; ; ) 0.83
[fb, pK] = Sb↓G [fb, pK] = Sb\G 0.91
17 17 0.85
英語(論文から抽出)日本語訳スコア
And the upsampling operation Su↑G そして Upsampling 操作 Su'G 0.84
K can be rewritten using the extend operation as: 拡張操作を使ってKを書き換えることができます。 0.60
fu = Su↑G K(f1, pK) = π(¯p)(f1↑G K) b, p(cid:48)K] = π(cid:48)(u)[fb, pK] where π and π(cid:48) are specified in フー=スグ K(f1, pK) = π(f1, pK) b, p(cid:48)K) = π(cid:48)(u)[fb, pK] ここで π と π(cid:48) が指定される。 0.72
For any u ∈ G let f(cid:48) = π(u)f and [f(cid:48) Equation (3) and Equation (6) respectively. 任意の u ∈ G に対して f(cid:48) = π(u)f と [f(cid:48) 方程式 (3) と (6) をそれぞれとする。 0.88
Since Φ is equivariant, we have Φ(f(cid:48)) = Φ(π(u)f ) = u · Φ(f ) = u · pK = p(cid:48)K from Equation (16). φ は同値であるため、 φ(f(cid:48)) = φ(π(u)f ) = u · φ(f ) = u · pk = p(cid:48)k が方程式 (16) から成り立つ。 0.71
Hence ¯p(cid:48)−1 = kupk−1 したがって、p(cid:48)−1 = kupk−1 0.62
Recall that ¯p(cid:48)−1u¯p = kupk−1 p(cid:48)−1u >p = kupk−1 0.59
p p ¯p−1u−1 and we have p p−1u−1 で 0.77
[π(¯p(cid:48)−1)f(cid:48)]↓G [π( πp(cid:48)−1)f(cid:48)] 0.89
K = [π(kupk−1 = π(kupk−1 = π(kupk−1 = π(kupk−1 k = [π(kupk−1) = π(kupk−1) = π(kupk−1) 0.89
p ¯p−1u−1)f(cid:48)]↓G p )[π(¯p−1)π(u−1)f(cid:48)]↓G p )[π(¯p−1)f ]↓G p )fb = f(cid:48) f(cid:48)], f(cid:48)] [g p )[π( ]p−1)π(u−1)f(cid:48)], f(cid:48)], f(cid:48)[π( ]p−1)f ], g p )fb = f(cid:48) 0.68
K K b K (17) K K b K (17) 0.85
(18) From Equations (17) and (18), Sb↓G (18) 方程式 (17) と 18) から Sb'G へ 0.84
For the upsampling operation, let [f(cid:48) 1 = π(¯p(cid:48)−1u¯p)f1. アップサンプリング演算に対しては、[f(cid:48) 1 = π( s(cid:48)−1u sp)f1 とする。 0.60
Hence we have f(cid:48) K(f(cid:48) したがって f(cid:48) K(f(cid:48) となる。 0.71
Su↑G 1, p(cid:48)K) = π(¯p(cid:48))f(cid:48) スグ 1, p(cid:48)k) = π(cid:48))f(cid:48) 0.68
1↑G H K is equivariant, i,e. 1/g H K は同変、すなわち同変である。 0.60
K(f ; Φ) = Sb↓G K(π(u)f ; Φ) 1K] = π(cid:48)(u)[f1, p1K] and f(cid:48) K(f ; s) = Sb\G K(π(u)f ; s) 1K] = π(cid:48)(u)[f1, p1K] and f(cid:48) 0.95
π(cid:48)(u)Sb↓G 1, p(cid:48) π(cid:48)(u)Sb\G 1, p(cid:48) 0.83
u = π(u)fu. u = π(u)fu である。 0.94
From Equation (6) From Equation (6) 0.85
Therefore, Su↑G K is equivariant, i.e. それゆえ、スグ K は同変、すなわち同変である。 0.49
π(u)Su↑G K([f1, p1K]) = Su↑G π(u)Su\G K([f1, p1K]) = Su\G 0.83
K(π(cid:48)(u)[f1, p1K]) K(π(cid:48)(u)[f1, p1K]) 0.99
= π(¯p(cid:48))[π(¯p(cid:48)−1u¯p)f1]↑G H = π(¯p(cid:48))π(¯p(cid:48)−1u¯p)(f1↑G H ) = π(u¯p)f1↑G = π( σp(cid:48))[π( σp(cid:48)−1u sp)f1]fg h = π( σp(cid:48))π( σp(cid:48)−1u sp)(f1-g h ) = π(u sp)f1-g 0.71
H = π(u)fu = f(cid:48) H = π(u)fu = f(cid:48) 0.98
u D.3 Proof of Proposition B.1 (See page 16) Proposition B.1. うーん D.3 Proof of Proposition B.1 (See page 16) Proposition B.1 0.68
ν−1 is the inverse of ν, hence ν is bijective. ν−1 は ν の逆数なので、ν は単射である。 0.75
And ∀u ∈ G we have: u · ν(p1G1, p2G2, . u · ν(p1G1, p2G2, ) である。 0.67
. . , pLGL) = ν(u · (p1G1, p2G2, . . . , pLGL) = ν(u · (p1G1, p2G2, )。 0.81
. . , pLGL)). . . ,pLGL)。 0.78
Proof. Firstly, we prove that ν−1 ◦ ν is an identity map, i.e. 証明。 まず、ν−1 を恒等写像、すなわち恒等写像であると証明する。 0.63
ν−1 ◦ ν = 1z. ν−1 は ν = 1z である。 0.65
Let req = ν(p1G1, p2G2, . req = ν(p1G1, p2G2, ) とする。 0.59
. . , pLGL) = (¯p1 ¯p2 . . . , pLGL) = (p1, p2。 0.81
. . ¯pL)GL and (p(cid:48) LGL) = ν−1(req). . . pL)GL および (p(cid:48) LGL) = ν−1(req)。 0.86
From 2G2, . . . 2G2から。 . . 0.85
, p(cid:48) 1 = ¯p1 ¯p2 . , p(cid:48) 1 = >p1 >p2。 0.58
. . ¯pLgL where gL ∈ GL. . . は gL ∈ GL である。 0.86
Equation (14), we know that p(cid:48) Since (¯p2 ¯p3 . 方程式 (14) は p(cid:48) since ( >p2 >p3 である。 0.66
. . ¯pL) ∈ G1, for l = 1 we have . . pL) ∈ G1, for l = 1, we have we have. 0.82
1G1, p(cid:48) 1GL = req. 1G1, p(cid:48) 1GL = req。 0.78
Hence we can let p(cid:48) したがって p(cid:48) とすると 0.56
1 ¯p(cid:48) 1 = ¯p1 · p(cid:48) 1 = ¯p2 ¯p3 . 1 p(cid:48) 1 = s1 · p(cid:48) 1 = s3 である。 0.75
. . ¯pLgL And recursively, for l = 1, . . . pLgL かつ l = 1 に対して再帰的に。 0.82
. . , L we would have . . , L であった。 0.80
2 = ¯p(cid:48)−1 p(cid:48) 2 = p(cid:48)−1 p(cid:48) 0.81
¯p(cid:48) l = ¯pl p(cid:48) l+1 = ¯pl+1 . p(cid:48) l = spl p(cid:48) l+1 = spl+1 である。 0.49
. . ¯pLgL 1G1, p(cid:48) Hence (p1G1, p2G2, . . . pLgL 1G1, p(cid:48) Hence (p1G1, p2G2, 。 0.78
. . , pLGL) = (p(cid:48) Secondly, we prove that ν ◦ ν−1 is also an identity map, LGL) = ν−1(req) and r(cid:48) (p(cid:48) 1G1, p(cid:48) we have req = p(cid:48) req = p(cid:48) . . , pLGL) = (p(cid:48) 次に、ν > ν−1 も恒等写像であることを証明する。 LGL) = ν−1(req) と r(cid:48) (p(cid:48) 1G1, p(cid:48) は req = p(cid:48) req = p(cid:48) req = p(cid:48) である。
訳抜け防止モード: . . ,pLGL ) = ( p(cid:48 ) 次に、ν は恒等写像であることを示す。 LGL ) = ν−1(req ) および r(cid:48 ) (p(cid:48 ) 1G1, p(cid:48 ) req = p(cid:48 ) req = p(cid:48 )
0.85
l−1 · pl−1. l−1 · pl−1。 0.61
Hence l = ¯p(cid:48)−1 2GL = ··· = ¯p(cid:48) 1 ¯p(cid:48) 1p(cid:48) したがって、l = シュプ(cid:48)−1 2GL = ··· = シュプ(cid:48) 1 シュプ(cid:48) 1p(cid:48) 0.67
2G2, . . . , p(cid:48) eq = ν(p(cid:48) 2G2。 . . , p(cid:48) eq = ν(p(cid:48) 0.86
1GL and p(cid:48) 1GL = ¯p(cid:48) 1gl と p(cid:48) 1gl = sp(cid:48) 0.69
2G2, . . . , p(cid:48) 2G2。 . . , p(cid:48) 0.85
1G1, p(cid:48) 1G1, p(cid:48) 0.75
2 . . . ¯p(cid:48) 2 . . . シュプ(第48話) 0.77
L−1p(cid:48) L−1p(cid:48) 0.59
LGL) and ν−1 ◦ ν = 1z. LGL) と ν−1 は ν = 1z である。 0.73
i.e. 2G2, . . i.e. 2G2。 . 0.80
. , p(cid:48) . , p(cid:48) 0.87
ν ◦ ν−1 = 1r. Let LGL). ν−1 = 1r。 LGL)。 0.72
From Equation (14), 等式 (14) から 0.58
LGL = ¯p(cid:48) LGL = >p(cid:48) 0.79
1 ¯p(cid:48) 1/p(cid:48) 0.54
2 . . . ¯p(cid:48) 2 . . . シュプ(第48話) 0.77
LGL = r(cid:48) LGL = r(cid:48) 0.92
eq 18 eq 18 0.85
英語(論文から抽出)日本語訳スコア
Therefore ν ◦ ν−1 = 1r and ν is bijective. したがって ν は ν−1 = 1r であり、ν は単射である。 0.61
LGL) = u · (p1G1, p2G2, . LGL) = u · (p1G1, p2G2, 。 0.72
. . , pLGL) Lastly, we prove ν is equivariant. . . pLGL) 最後に、ν が同変であることを証明します。 0.75
Let (p(cid:48) where the group action is implied by Equation (6). p(cid:48) を、群作用が方程式 (6) によって暗示されるとする。 0.64
From Equation (16), we know that when u ∈ G, π(¯p(cid:48)−1 方程式 (16) から、u ∈ g のとき π(cid:48)−1 が成り立つことが分かる。 0.80
1 u¯p1) ∈ G1. 1 u (p1) ∈ G1。 0.66
Recursively, we have 2G2, . 繰り返しますが、 2G2。 0.61
. . , p(cid:48) . . , p(cid:48) 0.86
1G1, p(cid:48) 1G1, p(cid:48) 0.75
for l = 1, . l = 1 の場合。 0.72
. . , L. When l = L, from ¯p(cid:48)−1 2 . . . p(cid:48)−1 2 から l = L となる。 0.80
. . ¯p(cid:48) . . シュプ(第48話) 0.74
¯p(cid:48) 1 ¯p(cid:48) 1p(cid:48)1p(cid:48) 0.69
¯p(cid:48)−1 </p(cid:48)−1 0.49
l . . . ¯p(cid:48)−1 2 ¯p(cid:48)−1 L . うーん . . . p(cid:48)−1 2(cid:48)−1 l である。 0.74
. . ¯p(cid:48)−1 . . </p(cid:48)−1 0.73
1 u¯p1 ¯p2 . 1 u/p1/p2。 0.45
. . ¯pl ∈ Gl 2 ¯p(cid:48)−1 . . spl ∈ Gl 2 >p(cid:48)−1 0.80
1 u¯p1 ¯p2 . 1 u/p1/p2。 0.45
. . ¯pl ∈ GL, we have . . ーpl ∈ GL です。 0.79
LGL = u · (¯p1 ¯p2 . LGL = u · (p1, p2 )。 0.68
. . ¯pLGL) . . ~pLGL) 0.84
Hence u · ν(p1G1, p2G2, . したがって u · ν(p1G1, p2G2, ) である。 0.54
. . , pLGL) = ν(u · (p1G1, p2G2, . . . , pLGL) = ν(u · (p1G1, p2G2, )。 0.81
. . , pLGL)). . . ,pLGL)。 0.78
So that the group action given by Equation (6) is simplified to the left-action on the single group element. したがって、方程式(6)によって与えられる群作用は、単一の群要素の左作用に単純化される。 0.67
(19) D.4 Proof of Proposition 3.1 (See page 6) (19) D.4 Proposition 3.1 (See page 6) 0.89
Proposition 3.1. When ENC and DEC are given by Equations (8) and (9), and the group actions are specified as in Equation (3) and Equation (6), for any g ∈ G and f ∈ IG, we have 命題3.1。 ENC と DEC が方程式 (8) と (9) で与えられるとき、群作用は、任意の g ∈ G および f ∈ IG に対して、方程式 (3) および Equation (6) で指定される。 0.66
[zinv, g · zeq] = ENC(π(g)f ) [zinv, g · zeq] = ENC(π(g)f ) 0.85
π(g) ˆf = DEC(zinv, g · zeq) π(g) >f = DEC(zinv, g · zeq) 0.90
Proof. Let f, f(cid:48) ∈ IG be the input feature maps where f(cid:48) = π(g)f. Let [fl, plGl] and [f(cid:48) l , p(cid:48) lGl] be the feature maps and subsampling indexes output by the l-th subsampling layer for f and f(cid:48) eq = ν(z(cid:48) respectively. 証明。 f, f(cid:48) ∈ ig を入力特徴写像とし、f(cid:48) = π(g)f. let [fl, plgl] と [f(cid:48) l , p(cid:48) lgl] をそれぞれ f と f(cid:48) eq = ν(z(cid:48) に対する l 番目の部分サンプリング層によって出力される特徴写像と部分サンプリングインデックスとする。 0.69
Let [zinv, zeq] = ENC(f ) and [z(cid:48) eq) where ν is given in Equation (13). Zinv, zeq] = ENC(f ) and [z(cid:48) eq) ここで ν は方程式 (13) で与えられる。 0.80
From Equation (6) and the equivariance of G-CNNl(·), we have 方程式 (6) と G-CNNl(·) の等式から得られる。 0.63
eq] = ENC(f(cid:48)) and let req = ν(zeq), r(cid:48) eq] = ENC(f(cid:48)) そして req = ν(zeq), r(cid:48) 0.91
inv, z(cid:48) inv, z(cid:48) 0.92
1 = π(¯p(cid:48)−1 f(cid:48) 1 = π(cid:48)−1 f(cid:48) 0.96
1 g ¯p1)f1 f(cid:48) l = π((¯p(cid:48) 2 . 1 g=p1)f1 f(cid:48) l = π(( )p(cid:48) 2 である。 0.73
. . ¯p(cid:48) . . シュプ(第48話) 0.74
1 ¯p(cid:48) 1/p(cid:48) 0.54
2 . . . ¯p(cid:48) 2 . . . シュプ(第48話) 0.77
l)−1g(¯p1 ¯p2 . l)−1g(p1,p2)。 0.56
. . ¯pl))fl . . ~pl))fl 0.86
l)−1g(¯p1 ¯p2 . l)−1g(p1,p2)。 0.56
. . ¯pl) ∈ Gl (see Equation (19)). . . l) ∈ gl (方程式 (19) を参照)。 0.84
(20) and recursively: (20) そして再帰的に 0.75
where l = 1, . ここで l = 1 である。 0.69
. . , L and (¯p(cid:48) Since GL = {e} when l = L, we have (¯p(cid:48) 1 ¯p(cid:48) . . L = L のとき GL = {e} であるため、 ( >p(cid:48) 1 >p(cid:48) となる。 0.83
1 ¯p(cid:48) 1/p(cid:48) 0.54
2 . . . ¯p(cid:48) 2 . . . シュプ(第48話) 0.77
L)−1g(¯p1 ¯p2 . L)−1g(p1,p2)。 0.56
. . ¯pL) = e . . は (pL) = e 0.79
Hence which can be rewritten as そのため 書き直すことができます 0.65
f(cid:48)(e) = f (e) f(cid:48)(e) = f (e) 0.98
1 ¯p(cid:48) (¯p(cid:48) 1つ (cid:48) (cid:48) 0.89
2 . . . ¯p(cid:48) 2 . . . シュプ(第48話) 0.77
L) = g · (¯p1 ¯p2 . L) = g · ( >p1 >p2 。 0.72
. . ¯pL) z(cid:48) inv = zinv eq = g · req r(cid:48) . . 略称)。 z(cid:48) inv = zinv eq = g · req r(cid:48) 0.77
From Proposition B.1 we have z(cid:48) eq = ν−1(r(cid:48) 命題B.1より z(cid:48) eq = ν−1(r(cid:48) 0.66
eq) = ν−1(ureq) = g · ν−1(req) = g · zeq eq) = ν−1(ureq) = g · ν−1(req) = g · zeq 0.97
Therefore, for the encoders we have [zinv, g · zeq] = ENC(π(g)f ). したがって、エンコーダに対しては [zinv, g · zeq] = ENC(π(g)f ) となる。 0.78
For the decoders, let z(cid:48) eq = (p(cid:48) デコーダーのために z(cid:48) eq = (p(cid:48) 0.68
1G1, p(cid:48) 1G1, p(cid:48) 0.75
2G2, . . . , p(cid:48) 2G2。 . . , p(cid:48) 0.85
LGL) = g · zeq LGL) = g · zeq 0.85
Since the feature map at the l-th subsampling layer is transformed according to Equation (20), the sampling index is transformed accordingly: l番目のサブサンプリング層の特徴マップは方程式(20)に従って変換されるので、サンプリングインデックスは次のように変換される。 0.63
1 g ¯p1 ¯p2 . . 1g/p1/p2。 . 0.66
. ¯pl−1)plGL fFrom the definition of equivariant upsampling in Equation (5), we have 1 g ¯p1 ¯p2 . . 方程式 (5) における同変アップサンプリングの定義から、 1 g {\displaystyle 1} は 1 g {\displaystyle 1} である。
訳抜け防止モード: . From the definition of equivariant upsampling in Equation (5 ) 1 g > p1 > p2 である。
0.76
. . ¯pl−1)fl−1 . . はpl−1)fl−1 0.74
l−1 = π(¯p(cid:48)−1 f(cid:48) l−1 = π(cid:48)−1 f(cid:48) 0.86
l−1 . . . ¯p(cid:48)−1 l−1。 . . </p(cid:48)−1 0.70
lGl = (¯p(cid:48)−1 p(cid:48) lgl = (cid:48)−1 p(cid:48) 0.83
l−1 . . . ¯p(cid:48)−1 l−1。 . . </p(cid:48)−1 0.70
2 ¯p(cid:48)−1 2/p(cid:48)−1 0.70
where l = L, . L = L である。 0.63
. . , 1. When l = 1, we have f(cid:48) . . , 1. l = 1 のとき f(cid:48) となる。 0.83
2 ¯p(cid:48)−1 0 = π(g)f0 so that π(g) ˆf = DEC(zinv, g · zeq). 2 )p(cid:48)−1 0 = π(g)f0 なので π(g) は dec(zinv, g · zeq) となる。 0.86
19 19 0.85
英語(論文から抽出)日本語訳スコア
(a) Colored-dSprites (a)着色dスプライト 0.59
(b) FashionMNIST (b)FashionMNIST 0.72
(c) Multi-dSprites (c)Multi-dSprites 0.82
(d) CLEVR6 Figure 6 (d)CLEVR6 図6 0.89
E Implementation Details In this section, we outline a few important implementation details, and leave other details to the reference code at https://github.com/j inxu06/gsubsampling. E 実装の詳細 この節では、いくつかの重要な実装の詳細を概説し、その他の詳細はhttps://github.com/j inxu06/gsubsampling. com/で参照コードに残します。 0.66
E.1 Data For Colored-dSprites and FashionMNIST datasets, we add colours to grayscale images from [35] and [49] by sampling random scaling for each channel uniformly between 0.5 and 1 following [31]. E.1データ Colored-dSprites と FashionMNIST のデータセットでは,[35] と [49] のグレースケール画像に色を加え,0.5 から 1 までのチャネルごとのランダムなスケーリングをサンプリングする。 0.78
For FashionMNIST, we also apply zero-paddings to images to reach the size of 64× 64. FashionMNISTでは、画像にゼロパディングを適用して64×64のサイズに到達する。 0.65
We then translate the images with random displacements uniformly sampled from {(x, y)|−18 ≤ x, y ≤ 18, x, y ∈ Z}, and rotate the images with uniformly sampled degrees from { 360×k |k = 0, . 次に、画像を{(x, y)|−18 ≤ x, y ≤ 18, x, y ∈ z} から一様にサンプリングしたランダムな変位で変換し、{360×k |k = 0, から一様にサンプリングされた次数で回転させる。 0.75
. . , 32}. . . , 32}. 0.85
We use the original Multi-dSprites dataset as provided in [26]. もともとのMulti-dSpritesデータセットは[26]で提供されています。 0.64
For CLEVR6, we crop images from the original CLEVR [25] at y-coordinates (29, 221) bottom and top, and at x-coordinates (64, 256) left and right as stated in [2]. clevr6の場合、元のclevr [25]の画像は、下と上がy-coordinates (29,221)、下がx-coordinates (64,256)、下が[2]である。 0.66
We then resize the images to 64 × 64 so that we can use the same model for both multi-object datasets. 次に、画像を64×64にリサイズして、同じモデルを両方のマルチオブジェクトデータセットに使用できるようにします。 0.80
We only use images with up to 6 objects in CLEVR following [19]. CLEVRでは[19]に従って最大6つのオブジェクトを持つイメージのみを使用します。 0.70
For evaluation, we use a randomly sampled test set with 10000 examples that has no overlap with training data for all datasets. 評価には、すべてのデータセットのトレーニングデータと重複しない10000のサンプルをランダムにサンプリングしたテストセットを使用します。 0.74
In Figure 6, we show examples from different datasets. 図6では、異なるデータセットの例を示します。 0.81
32 E.2 Model Architectures 32 E.2 モデルアーキテクチャ 0.78
The equivariant map Φ One can insert arbitrary equivariant layers before and after we take the norm (cid:107) · (cid:107)1 in Equation (7). 等変写像は、標準 (cid:107) · (cid:107)1 を方程式 (7) で取る前後に任意の等変層を挿入することができる。 0.66
In experiments, we apply mean subtraction followed by average pooling with kernel size 5 before taking the norm, and apply Gaussian blur with kernel size 15 after taking the norm. 実験では、平均サブトラクションを、標準を取る前にカーネルサイズ5の平均プーリングに適用し、標準を取ると、ガウスのぼかしをカーネルサイズ15に適用する。 0.74
They are inserted in the purpose of smoothing feature maps and avoiding non-unique argmax when possible (in Appendix B.1 we discuss the case when non-unique argmax cannot be avoided). それらは特徴写像を滑らかにし、可能であれば非ユニクなargmaxを避けるために挿入される(アペンディックス B.1 では、非ユニクなargmaxは避けられない場合について論じる)。 0.59
In practice, we use Equation (15) to obtain all subsampling indexes at the same time rather than passing through Φ multiple times. 実際、方程式 (15) を用いて、 φ を複数回通過するのではなく、全てのサブサンプリングインデックスを同時に取得する。 0.73
Autoencoders For all single object experiments, we use 5 layers of (G-)equivariant convolutional layers in encoders, and the decoders mirror the architecture of the encoders except for the output layers. オートエンコーダ すべての単一オブジェクト実験では、エンコーダに5つの(G-)等価な畳み込みレイヤを使用し、デコーダは出力層を除いてエンコーダのアーキテクチャを反映します。 0.70
In baseline models, we use strided convolution as a way to perform subsampling/upsampli ng, while in equivariant models we use equivariant downsampling/upsampl ing. ベースラインモデルでは、サブサンプリング/アップサンプリングを行う手段としてストライド畳み込みを使用し、同変モデルでは同変ダウンサンプリング/アップサンプリングを使用する。 0.47
We rescale the number of channels such that the total number of parameters of the models roughly match one another. 私たちは、モデルのパラメータの総数が大まかに一致するように、チャネル数を再スケールします。 0.83
However, exact correspondence is not achievable because exact equivariant models use equivariant subsampling to transform feature maps into vectors at the final layer of the encoder, while baseline models apply flattening. しかし、正確な同変モデルは同変部分サンプリングを用いてエンコーダの最終層における特徴写像をベクトルに変換し、ベースラインモデルは平坦化を適用するため、正確な対応は得られない。 0.62
Please see the reference implementation for other details about network architectures. ネットワークアーキテクチャに関するその他の詳細は参照実装を参照してください。 0.70
We use scale factor 2 for all subsampling and upsampling layers in baseline models. ベースラインモデルのすべてのサブサンプリング層とアップサンプリング層にスケールファクター2を使用します。 0.64
For GAEp1, the feature maps at each layer are defined on the following chain of nested subgroups: Z2 ≥ (2Z)2 ≥ (4Z)2 ≥ (8Z)2 ≥ (16Z)2 ≥ {e}. GAEp1 について、各層における特徴写像は以下のネストされた部分群の鎖上で定義される: Z2 ≥ (2Z)2 ≥ (4Z)2 ≥ (8Z)2 ≥ (16Z)2 ≥ {e}。 0.81
For For GAE-p4, we use Z2 (cid:111) C4 ≥ (2Z)2 (cid:111) C4 ≥ (4Z)2 (cid:111) C4 ≥ (8Z)2 (cid:111) C4 ≥ (16Z)2 (cid:111) C2 ≥ {e}. GAE-p4 に対して、Z2 (cid:111) C4 ≥ (2Z)2 (cid:111) C4 ≥ (4Z)2 (cid:111) C4 ≥ (8Z)2 (cid:111) C4 ≥ (16Z)2 (cid:111) C2 ≥ {e} を用いる。 0.79
And for GAE-p4m, we use Z2 (cid:111) (C4 (cid:111) C2) ≥ (2Z)2 (cid:111) (C4 (cid:111) C2) ≥ (4Z)2 (cid:111) (C4 (cid:111) C2) ≥ (8Z)2 (cid:111) (C4 (cid:111) C2) ≥ (16Z)2 (cid:111) (C2 (cid:111) C2) ≥ {e}. GAE-p4m では Z2 (cid:111) (C4 (cid:111) C2) ≥ (2Z)2 (cid:111) (C4 (cid:111) C2) ≥ (4Z)2 (cid:111) (C4 (cid:111) C2) ≥ (8Z)2 (cid:111) (C4 (cid:111) C2) ≥ (16Z)2 (cid:111) (cid:111) C2) ≥ {e} を用いる。 0.82
20 20 0.85
英語(論文から抽出)日本語訳スコア
Object discovery For baseline models, we adopt the exact same architecture as the original MONet [2] using the implementation provided by [13]. オブジェクト発見 ベースラインモデルでは、[13]が提供する実装を使用して、元のMONet [2]と全く同じアーキテクチャを採用します。 0.78
For MONet-GAEs, we simply replace Component VAEs in the original MONet with our V-GAEs. MONet-GAE の場合、元のMONet の Component VAE を V-GAE に置き換えるだけです。 0.72
Both Component VAEs and V-GAEs have a latent size of 16. 成分vaesとv-gaeはいずれも潜在サイズが16である。 0.59
E.3 Hyperparameters E.3ハイパーパラメータ 0.53
For all single object experiments, we use Adam optimizer [29] with a learning rate of 0.0001 and a batch size of 16. すべての単一オブジェクト実験では、adam optimizer [29] を 0.0001 の学習率で、16.0 のバッチサイズで使用する。 0.78
We use 16-bits precision to enable faster training and reduce memory consumption. 16ビットの精度で高速なトレーニングとメモリ消費の削減を実現しています。 0.65
For experiments on multi-object datasets, hyperparameters will match the original MONet [2] except that we still use a batch size of 16 instead of 64 stated in the original paper. マルチオブジェクトデータセットの実験では、ハイパーパラメータはオリジナルのmonet [2]と一致しますが、オリジナルの論文で述べた64ではなく16のバッチサイズを使用します。 0.74
This is because we observed that in the low data regime, batch size 16 trains faster and performs no worse than batch size 64 for the problems we considered here. これは、低データ方式では、バッチサイズ16はより高速で、ここで考慮した問題に対して、バッチサイズ64よりもパフォーマンスが悪くなります。 0.63
E.4 Computational Resources In theory, the only computational overhead is caused by computing sampling indices, which is negligible compared to the forward pass of (G-)Convolutional layers. E.4 計算資源 理論的には、唯一の計算上のオーバーヘッドはサンプリングインデックスの計算であり、(g-)畳み込み層の前方通過と比較すると無視できる。 0.67
In practice, our current implementation uses torch.gather to perform subsampling, and relies on for-loops over data batches when applying group actions to feature maps, which we believe can be made more efficient. 実際には、現在の実装では、サブサンプリングにtorch.gatherを使用し、機能マップにグループアクションを適用する際に、データバッチよりもforループに依存しています。 0.60
Hence on a single GeForce GTX 1080 GPU card, a standard GAE-p1 takes around 30 minutes to train for 100k steps, compared to 16 minutes for standard ConvAEs. そのため、1台のGeForce GTX 1080 GPUカードでは、標準のGAE-p1が100kステップでトレーニングするのに約30分かかる。 0.67
21 21 0.85
                                           ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。