論文の概要: Invariant Integration in Deep Convolutional Feature Space
- arxiv url: http://arxiv.org/abs/2004.09166v1
- Date: Mon, 20 Apr 2020 09:45:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-11 17:35:56.312939
- Title: Invariant Integration in Deep Convolutional Feature Space
- Title(参考訳): 深部畳み込み特徴空間における不変積分
- Authors: Matthias Rath and Alexandru Paul Condurache
- Abstract要約: より深いニューラルネットワークアーキテクチャに事前知識を原則的に組み込む方法を示す。
本稿では,Rotated-MNISTデータセットの最先端性能について報告する。
- 参考スコア(独自算出の注目度): 77.99182201815763
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this contribution, we show how to incorporate prior knowledge to a deep
neural network architecture in a principled manner. We enforce feature space
invariances using a novel layer based on invariant integration. This allows us
to construct a complete feature space invariant to finite transformation
groups.
We apply our proposed layer to explicitly insert invariance properties for
vision-related classification tasks, demonstrate our approach for the case of
rotation invariance and report state-of-the-art performance on the
Rotated-MNIST dataset. Our method is especially beneficial when training with
limited data.
- Abstract(参考訳): このコントリビューションでは、より深いニューラルネットワークアーキテクチャに事前知識を原則的に組み込む方法について説明する。
不変積分に基づく新しい層を用いて特徴空間不変性を導入する。
これにより、有限変換群に不変な完全特徴空間を構築することができる。
提案手法は,視覚関連分類タスクの非分散特性を明示的に挿入することに適用し,回転不変性の場合のアプローチと回転mnistデータセットの最先端性能を実証する。
本手法は限られたデータでトレーニングする場合に特に有用である。
関連論文リスト
- Uniform Transformation: Refining Latent Representation in Variational Autoencoders [7.4316292428754105]
本稿では,不規則な潜伏分布に対応するために,新しい適応型3段階一様変換(UT)モジュールを提案する。
この手法は不規則分布を潜在空間の均一分布に再構成することにより、潜在表現の絡み合いと解釈可能性を大幅に向上させる。
実験により,提案するUTモジュールの有効性を実証し,ベンチマークデータセット間の絡み合いの指標を改良した。
論文 参考訳(メタデータ) (2024-07-02T21:46:23Z) - Task Adaptive Feature Transformation for One-Shot Learning [21.20683465652298]
単発タスクのための固定された事前学習機能の上に微調整された単純な非線形埋め込み適応層を導入する。
様々なワンショットベンチマークに対して一貫した改善が見られ、最近の最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2023-04-13T21:52:51Z) - Reparameterization through Spatial Gradient Scaling [69.27487006953852]
リパラメータ化は、学習中に畳み込み層を等価なマルチブランチ構造に変換することによって、ディープニューラルネットワークの一般化を改善することを目的としている。
本稿では,畳み込みネットワークにおける重み間の学習焦点を再分配する空間勾配スケーリング手法を提案する。
論文 参考訳(メタデータ) (2023-03-05T17:57:33Z) - Deep Neural Networks with Efficient Guaranteed Invariances [77.99182201815763]
我々は、性能改善の問題、特にディープニューラルネットワークのサンプル複雑性に対処する。
群同変畳み込みは同変表現を得るための一般的なアプローチである。
本稿では,各ストリームが異なる変換に不変なマルチストリームアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-02T20:44:45Z) - Equivariant Architectures for Learning in Deep Weight Spaces [54.61765488960555]
重み空間の学習のための新しいネットワークアーキテクチャを提案する。
入力として、事前訓練された不変量の重みとバイアスの連結をとる。
これらのレイヤを3つの基本的な操作で実装する方法を示す。
論文 参考訳(メタデータ) (2023-01-30T10:50:33Z) - A Simple Strategy to Provable Invariance via Orbit Mapping [14.127786615513978]
本稿では,グループ行動に関して,ネットワークアーキテクチャを確実に不変にする方法を提案する。
簡単に言えば、実際のネットワークにデータを送る前に、可能なトランスフォーメーションを“無効化”するつもりです。
論文 参考訳(メタデータ) (2022-09-24T03:40:42Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z) - Fine-Grained Dynamic Head for Object Detection [68.70628757217939]
本稿では,各インスタンスの異なるスケールからfpn特徴の画素レベルの組み合わせを条件付きで選択する,きめ細かい動的ヘッドを提案する。
実験は,いくつかの最先端検出ベンチマークにおける提案手法の有効性と有効性を示す。
論文 参考訳(メタデータ) (2020-12-07T08:16:32Z) - BasisVAE: Translation-invariant feature-level clustering with
Variational Autoencoders [9.51828574518325]
変分オートエンコーダ(VAE)は、非線形次元削減のための柔軟でスケーラブルなフレームワークを提供する。
崩壊した変分推論スキームがBasisVAEのスケーラブルかつ効率的な推論にどのように寄与するかを示す。
論文 参考訳(メタデータ) (2020-03-06T23:10:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。