論文の概要: Group Equivariant Neural Architecture Search via Group Decomposition and
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2104.04848v1
- Date: Sat, 10 Apr 2021 19:37:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-15 07:42:45.271544
- Title: Group Equivariant Neural Architecture Search via Group Decomposition and
Reinforcement Learning
- Title(参考訳): グループ分解と強化学習によるグループ同変ニューラルアーキテクチャ探索
- Authors: Sourya Basu, Akshayaa Magesh, Harshit Yadav, Lav R. Varshney
- Abstract要約: 我々は、同値ニューラルネットワークの文脈において、新しい群論的結果を証明する。
また、計算複雑性を大幅に改善する同変ネットワークを構築するアルゴリズムを設計する。
我々は、性能を最大化するグループ同変ネットワークの探索に深層Q-ラーニングを用いる。
- 参考スコア(独自算出の注目度): 17.291131923335918
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent works show that including group equivariance as an inductive bias
improves neural network performance for both classification and generation
tasks. Designing group-equivariant neural networks is, however, challenging
when the group of interest is large and is unknown. Moreover, inducing
equivariance can significantly reduce the number of independent parameters in a
network with fixed feature size, affecting its overall performance. We address
these problems by proving a new group-theoretic result in the context of
equivariant neural networks that shows that a network is equivariant to a large
group if and only if it is equivariant to smaller groups from which it is
constructed. We also design an algorithm to construct equivariant networks that
significantly improves computational complexity. Further, leveraging our
theoretical result, we use deep Q-learning to search for group equivariant
networks that maximize performance, in a significantly reduced search space
than naive approaches, yielding what we call autoequivariant networks (AENs).
To evaluate AENs, we construct and release new benchmark datasets, G-MNIST and
G-Fashion-MNIST, obtained via group transformations on MNIST and Fashion-MNIST
respectively. We show that AENs find the right balance between group
equivariance and number of parameters, thereby consistently having good task
performance.
- Abstract(参考訳): 最近の研究は、帰納的バイアスとしてグループ同分散を含めることで、分類と生成タスクの両方においてニューラルネットワークのパフォーマンスが向上することを示している。
しかし、グループ同変ニューラルネットワークの設計は、グループの関心が大きく、不明な場合には困難である。
さらに、等分散の誘発は、機能サイズが固定されたネットワーク内の独立したパラメータの数を著しく減少させ、全体のパフォーマンスに影響を及ぼす。
我々は、ネットワークが大きな群に同変であることと、それが構成されるより小さな群に対して同変であることを示す同変ニューラルネットワークの文脈において、新たな群論的結果を証明することによって、これらの問題に対処する。
また、計算複雑性を大幅に改善する同変ネットワークを構築するアルゴリズムを設計する。
さらに,この理論的な結果を利用して,自己同値ネットワーク (autoequivariant network, aens) と呼ばれる手法を生かして,性能を最大化するグループ同値ネットワークの探索を行う。
AENを評価するために、我々はそれぞれMNISTとFashion-MNISTの群変換によって得られた新しいベンチマークデータセットG-MNISTとG-Fashion-MNISTを構築し、リリースする。
AEN は群同値とパラメータ数との適切なバランスを見出すことができ、従ってタスク性能が良好であることを示す。
関連論文リスト
- Self-Supervised Learning for Group Equivariant Neural Networks [75.62232699377877]
群同変ニューラルネットワーク(英: Group equivariant Neural Network)は、入力の変換で通勤する構造に制限されたモデルである。
自己教師型タスクには、同変プリテキストラベルと異変コントラスト損失という2つの概念を提案する。
標準画像認識ベンチマークの実験では、同変ニューラルネットワークが提案された自己教師型タスクを利用することを示した。
論文 参考訳(メタデータ) (2023-03-08T08:11:26Z) - Deep Neural Networks with Efficient Guaranteed Invariances [77.99182201815763]
我々は、性能改善の問題、特にディープニューラルネットワークのサンプル複雑性に対処する。
群同変畳み込みは同変表現を得るための一般的なアプローチである。
本稿では,各ストリームが異なる変換に不変なマルチストリームアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-02T20:44:45Z) - Equivariant Transduction through Invariant Alignment [71.45263447328374]
グループ内ハードアライメント機構を組み込んだ,新しいグループ同変アーキテクチャを提案する。
我々のネットワーク構造は、既存のグループ同変アプローチよりも強い同変特性を発達させることができる。
また、SCANタスクにおいて、従来のグループ同変ネットワークよりも経験的に優れていたことが判明した。
論文 参考訳(メタデータ) (2022-09-22T11:19:45Z) - Equivariance versus Augmentation for Spherical Images [0.7388859384645262]
球面画像に適用した畳み込みニューラルネットワーク(CNN)における回転同値の役割を解析する。
我々は、S2CNNとして知られるグループ同変ネットワークと、データ増大量で訓練された標準非同変CNNの性能を比較した。
論文 参考訳(メタデータ) (2022-02-08T16:49:30Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z) - Implicit Equivariance in Convolutional Networks [1.911678487931003]
IEN(Implicitly Equivariant Networks)は標準CNNモデルの異なる層で同変を誘導する。
IENは、高速な推論速度を提供しながら、最先端の回転同変追跡法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-11-28T14:44:17Z) - Exploiting Redundancy: Separable Group Convolutional Networks on Lie
Groups [14.029933823101084]
群畳み込みニューラルネットワーク(G-CNN)はパラメータ効率とモデルの精度を向上させることが示されている。
本研究では,正規G-CNNによって学習された表現の性質について検討し,グループ畳み込みカーネルにおけるパラメータ冗長性を示す。
部分群とチャネル次元で分離可能な畳み込みカーネルを導入する。
論文 参考訳(メタデータ) (2021-10-25T15:56:53Z) - Frame Averaging for Invariant and Equivariant Network Design [50.87023773850824]
フレーム平均化(FA)は、既知の(バックボーン)アーキテクチャを新しい対称性タイプに不変あるいは同変に適応するためのフレームワークである。
FAモデルが最大表現力を持つことを示す。
我々は,新しいユニバーサルグラフニューラルネット(GNN),ユニバーサルユークリッド運動不変点クラウドネットワーク,およびユークリッド運動不変メッセージパッシング(MP)GNNを提案する。
論文 参考訳(メタデータ) (2021-10-07T11:05:23Z) - LieTransformer: Equivariant self-attention for Lie Groups [49.9625160479096]
群等価ニューラルネットワークは群不変ニューラルネットワークの構成要素として用いられる。
我々は、文学の範囲を、ディープラーニングモデルの顕著な構築ブロックとして現れつつある自己注意にまで広げる。
任意のリー群とその離散部分群に同値なリー自己結合層からなる構造であるリー変換器を提案する。
論文 参考訳(メタデータ) (2020-12-20T11:02:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。