論文の概要: Rotated Ring, Radial and Depth Wise Separable Radial Convolutions
- arxiv url: http://arxiv.org/abs/2010.00873v3
- Date: Sun, 17 Jan 2021 12:08:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 01:42:08.545146
- Title: Rotated Ring, Radial and Depth Wise Separable Radial Convolutions
- Title(参考訳): 回転リング, ラジアル, 深さワイズ分離型ラジアルコンボリューション
- Authors: Wolfgang Fuhl, Enkelejda Kasneci
- Abstract要約: 本研究では、トレーニング可能な回転不変畳み込みとネットの構築について述べる。
一方、我々のアプローチは異なるモデルと異なる公開データセットに対して回転不変であることを示す。
提示される回転適応畳み込みモデルは、通常の畳み込みモデルよりも計算集約的である。
- 参考スコア(独自算出の注目度): 13.481518628796692
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Simple image rotations significantly reduce the accuracy of deep neural
networks. Moreover, training with all possible rotations increases the data
set, which also increases the training duration. In this work, we address
trainable rotation invariant convolutions as well as the construction of nets,
since fully connected layers can only be rotation invariant with a
one-dimensional input. On the one hand, we show that our approach is
rotationally invariant for different models and on different public data sets.
We also discuss the influence of purely rotational invariant features on
accuracy. The rotationally adaptive convolution models presented in this work
are more computationally intensive than normal convolution models. Therefore,
we also present a depth wise separable approach with radial convolution. Link
to CUDA code
https://atreus.informatik.uni-tuebingen.de/seafile/d/8e2ab8c3fdd444e1a135/
- Abstract(参考訳): 単純な画像回転はディープニューラルネットワークの精度を著しく低下させる。
さらに、あらゆる回転可能なトレーニングによってデータセットが増加し、トレーニング期間も増加します。
本研究では,完全連結層は1次元入力でのみ回転不変であるので,学習可能な回転不変な畳み込みとネットの構成を扱う。
一方,我々のアプローチは,異なるモデルと異なる公開データセットに対して回転不変であることを示す。
また、純粋に回転不変な特徴が精度に与える影響についても論じる。
この研究で示された回転適応畳み込みモデルは、通常の畳み込みモデルよりも計算集約的である。
したがって,放射状畳み込みによる深度賢明な分離可能なアプローチも提案する。
cuda コード https://atreus.informatik.uni-tuebingen.de/seafile/d/8e2ab8c3fdd444e1a135/
関連論文リスト
- RIC-CNN: Rotation-Invariant Coordinate Convolutional Neural Network [56.42518353373004]
回転不変座標変換(RIC-C)と呼ばれる新しい畳み込み演算を提案する。
CNNの標準畳み込み層を対応するRCC-Cに置き換えることで、RCC-CNNを導出することができる。
RIC-CNNはMNISTの回転試験データセット上で最先端の分類を実現することが観察できる。
論文 参考訳(メタデータ) (2022-11-21T19:27:02Z) - Orthonormal Convolutions for the Rotation Based Iterative
Gaussianization [64.44661342486434]
本稿では、画像ガウス化を可能にする回転型反復ガウス化RBIGの拡張について詳述する。
RBIGの回転は主成分分析や独立成分分析に基づくため、画像では小さな画像パッチや孤立画素に制限されている。
emphConvolutional RBIG:この問題を緩和する拡張として,RBIGの回転が畳み込みであることを示す。
論文 参考訳(メタデータ) (2022-06-08T12:56:34Z) - ART-Point: Improving Rotation Robustness of Point Cloud Classifiers via
Adversarial Rotation [89.47574181669903]
本研究では, 点雲分類器の回転ロバスト性も, 対角訓練により得られることを示す。
具体的には、ART-Pointというフレームワークは、ポイントクラウドの回転を攻撃と見なしている。
最終的なロバストモデルに効率よく到達するために,高速なワンステップ最適化を提案する。
論文 参考訳(メタデータ) (2022-03-08T07:20:16Z) - RRL:Regional Rotation Layer in Convolutional Neural Networks [2.131909135487625]
畳み込みニューラルネットワーク(CNN)は、画像分類とオブジェクト検出において非常によく機能する。
本稿では,既存のネットワークに挿入可能なモジュールを提案し,その回転不変性をCNNの特徴抽出層に直接組み込む。
このモジュールには学習可能なパラメータがなく、モデルの複雑さを増すことはない。
論文 参考訳(メタデータ) (2022-02-25T06:07:53Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z) - Adjoint Rigid Transform Network: Task-conditioned Alignment of 3D Shapes [86.2129580231191]
Adjoint Rigid Transform (ART) Networkは、さまざまな3Dネットワークと統合可能なニューラルネットワークモジュールである。
ARTは入力の形状を学習した標準方向に回転させることを学び、多くのタスクに欠かせない。
さらなる研究のために、コードと事前訓練されたモデルをリリースします。
論文 参考訳(メタデータ) (2021-02-01T20:58:45Z) - Rotation-Invariant Autoencoders for Signals on Spheres [10.406659081400354]
球面画像に対する回転不変表現の教師なし学習の問題について検討する。
特に、$S2$と$SO(3)$の畳み込み層からなるオートエンコーダアーキテクチャを設計する。
複数のデータセットの実験は、クラスタリング、検索、分類アプリケーションにおける学習された表現の有用性を示す。
論文 参考訳(メタデータ) (2020-12-08T15:15:03Z) - Rotation-Invariant Point Convolution With Multiple Equivariant
Alignments [1.0152838128195467]
回転同変アライメントを用いることで、任意の畳み込み層を回転不変にすることができることを示す。
このコア層では、オブジェクト分類とセマンティックセグメンテーションの両方における最先端の結果を改善する回転不変アーキテクチャを設計します。
論文 参考訳(メタデータ) (2020-12-07T20:47:46Z) - Learnable Gabor modulated complex-valued networks for orientation
robustness [4.024850952459758]
学習可能な Gabor Convolutional Networks (LGCNs) はパラメータ効率が良く、モデルの複雑さが増す。
複雑な値を持つ畳み込み重みの束縛性について,学習したガボルフィルタを用いて検討し,配向変換を実現する。
論文 参考訳(メタデータ) (2020-11-23T21:22:27Z) - Rotated Binary Neural Network [138.89237044931937]
バイナリニューラルネットワーク(BNN)は、ディープニューラルネットワークの複雑さの低減において、その優位性を示している。
主要な障害の1つは、全精度重みベクトルとその二乗ベクトルの間の大きな量子化誤差である。
本稿では,全精度重みベクトルとバイナライズ版との角度アライメントを考慮した回転2成分ニューラルネットワーク(RBNN)を提案する。
論文 参考訳(メタデータ) (2020-09-28T04:22:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。