論文の概要: Sum-Product-Transform Networks: Exploiting Symmetries using Invertible
Transformations
- arxiv url: http://arxiv.org/abs/2005.01297v1
- Date: Mon, 4 May 2020 07:05:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 00:11:04.524895
- Title: Sum-Product-Transform Networks: Exploiting Symmetries using Invertible
Transformations
- Title(参考訳): Sum-Product-Transform Networks: Invertible Transformations を用いた爆発的対称性
- Authors: Tomas Pevny, Vasek Smidl, Martin Trapp, Ondrej Polacek, Tomas
Oberhuber
- Abstract要約: Sum-Product-Transform Networks (SPTN) は、非可逆変換を追加の内部ノードとして使用する総積ネットワークの拡張である。
G-SPTNは、密度推定タスクの最先端結果を達成し、異常検出のための最先端手法と競合する。
- 参考スコア(独自算出の注目度): 1.539942973115038
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we propose Sum-Product-Transform Networks (SPTN), an extension
of sum-product networks that uses invertible transformations as additional
internal nodes. The type and placement of transformations determine properties
of the resulting SPTN with many interesting special cases. Importantly, SPTN
with Gaussian leaves and affine transformations pose the same inference task
tractable that can be computed efficiently in SPNs. We propose to store affine
transformations in their SVD decompositions using an efficient parametrization
of unitary matrices by a set of Givens rotations. Last but not least, we
demonstrate that G-SPTNs achieve state-of-the-art results on the density
estimation task and are competitive with state-of-the-art methods for anomaly
detection.
- Abstract(参考訳): 本研究では,非可逆変換を内部ノードとして用いる和積ネットワークの拡張であるSum-Product-Transform Networks (SPTN)を提案する。
変換のタイプと配置は、多くの興味深い特別なケースで結果のSPTNの特性を決定する。
重要なことに、ガウスの葉とアフィン変換を持つSPTNは、SPNで効率的に計算できるのと同じ推論タスクを引き出すことができる。
本稿では,一元行列の効率的なパラメトリゼーションを,アフィン変換をSVD分解に応用することを提案する。
最後に、G-SPTNが密度推定タスクの最先端結果を実現し、異常検出のための最先端手法と競合することを示す。
関連論文リスト
- Entropy Transformer Networks: A Learning Approach via Tangent Bundle
Data Manifold [8.893886200299228]
本稿では,CNNアーキテクチャの設計における画像変換の高精度かつ高速なアプローチについて述べる。
データ多様体分布を補間する新しいエントロピーSTN(ESTN)を提案する。
挑戦的なベンチマークの実験は、提案されたESTNがコンピュータビジョンタスクの範囲で予測精度を向上させることを示している。
論文 参考訳(メタデータ) (2023-07-24T04:21:51Z) - Neural Functional Transformers [99.98750156515437]
本稿では,ニューラルファンクショナルトランスフォーマー (NFT) と呼ばれる新しい変分同変量空間層を定義するために,アテンション機構を用いる。
NFTは重み空間の置換対称性を尊重し、注意の利点を取り入れ、複数の領域で顕著な成功を収めた。
Inr2Arrayは暗黙的ニューラル表現(INR)の重みから置換不変表現を計算する新しい方法である。
論文 参考訳(メタデータ) (2023-05-22T23:38:27Z) - Deep Neural Networks with Efficient Guaranteed Invariances [77.99182201815763]
我々は、性能改善の問題、特にディープニューラルネットワークのサンプル複雑性に対処する。
群同変畳み込みは同変表現を得るための一般的なアプローチである。
本稿では,各ストリームが異なる変換に不変なマルチストリームアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-02T20:44:45Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z) - OneDConv: Generalized Convolution For Transform-Invariant Representation [76.15687106423859]
一般化された一次元畳み込み作用素(OneDConv)を提案する。
計算的かつパラメトリック的に効率的な方法で入力特徴に基づいて、畳み込みカーネルを動的に変換する。
一般的な画像のパフォーマンスを犠牲にすることなく、畳み込みの堅牢性と一般化を改善する。
論文 参考訳(メタデータ) (2022-01-15T07:44:44Z) - Revisiting Transformation Invariant Geometric Deep Learning: Are Initial
Representations All You Need? [80.86819657126041]
変換不変および距離保存初期表現は変換不変性を達成するのに十分であることを示す。
具体的には、多次元スケーリングを変更することで、変換不変かつ距離保存された初期点表現を実現する。
我々は、TinvNNが変換不変性を厳密に保証し、既存のニューラルネットワークと組み合わせられるほど汎用的で柔軟なことを証明した。
論文 参考訳(メタデータ) (2021-12-23T03:52:33Z) - Use of Deterministic Transforms to Design Weight Matrices of a Neural
Network [14.363218103948782]
セルフサイズ推定フィードフォワードネットワーク (SSFN) はフィードフォワード多層ネットワークである。
本稿では,ランダム行列インスタンスの代わりに決定論的変換を用いる方法について検討する。
提案手法の有効性を,複数のベンチマークデータセットを用いたオブジェクト分類タスクに適用した。
論文 参考訳(メタデータ) (2021-10-06T10:21:24Z) - Topographic VAEs learn Equivariant Capsules [84.33745072274942]
本稿では, 地理的に整理された潜伏変数を用いた深部生成モデルを効率的に学習するための新しい手法であるTopographic VAEを紹介する。
このようなモデルでは,MNIST上での桁数クラス,幅,スタイルなどの健全な特徴に応じて,その活性化を組織化することが実際に学べることが示される。
我々は、既存の群同変ニューラルネットワークの能力を拡張して、複素変換に近似した同値性を示す。
論文 参考訳(メタデータ) (2021-09-03T09:25:57Z) - Probabilistic Spatial Transformer Networks [0.6999740786886537]
本稿では、決定論的ではなく、変換を推定する確率的拡張を提案する。
これら2つの特性が,分類性能,ロバスト性,モデル校正性の向上につながることを示す。
さらに、時系列データにおけるモデル性能を改善することにより、非視覚領域へのアプローチが一般化されることを実証する。
論文 参考訳(メタデータ) (2020-04-07T18:22:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。