論文の概要: Scale Equivariant U-Net
- arxiv url: http://arxiv.org/abs/2210.04508v1
- Date: Mon, 10 Oct 2022 09:19:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 15:25:36.639068
- Title: Scale Equivariant U-Net
- Title(参考訳): スケール同変U-Net
- Authors: Mateus Sangalli (CMM), Samy Blusseau (CMM), Santiago Velasco-Forero
(CMM), Jesus Angulo (CMM)
- Abstract要約: 本稿では、スケールと翻訳の半群にほぼ同値なU-Netであるスケール等変U-Net(SEU-Net)を紹介する。
提案したSEU-Netは, セルセグメンテーションのためのOxford Pet IIITとDIC-C2DH-HeLaデータセットのセグメンテーションのために訓練されている。
U-Net がスケールジッタリングで訓練された場合でも、U-Net と比較して、目に見えないスケールへの一般化基準が劇的に改善される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In neural networks, the property of being equivariant to transformations
improves generalization when the corresponding symmetry is present in the data.
In particular, scale-equivariant networks are suited to computer vision tasks
where the same classes of objects appear at different scales, like in most
semantic segmentation tasks. Recently, convolutional layers equivariant to a
semigroup of scalings and translations have been proposed. However, the
equivariance of subsampling and upsampling has never been explicitly studied
even though they are necessary building blocks in some segmentation
architectures. The U-Net is a representative example of such architectures,
which includes the basic elements used for state-of-the-art semantic
segmentation. Therefore, this paper introduces the Scale Equivariant U-Net
(SEU-Net), a U-Net that is made approximately equivariant to a semigroup of
scales and translations through careful application of subsampling and
upsampling layers and the use of aforementioned scale-equivariant layers.
Moreover, a scale-dropout is proposed in order to improve generalization to
different scales in approximately scale-equivariant architectures. The proposed
SEU-Net is trained for semantic segmentation of the Oxford Pet IIIT and the
DIC-C2DH-HeLa dataset for cell segmentation. The generalization metric to
unseen scales is dramatically improved in comparison to the U-Net, even when
the U-Net is trained with scale jittering, and to a scale-equivariant
architecture that does not perform upsampling operators inside the equivariant
pipeline. The scale-dropout induces better generalization on the
scale-equivariant models in the Pet experiment, but not on the cell
segmentation experiment.
- Abstract(参考訳): ニューラルネットワークでは、変換に同値である性質は、データに対応する対称性が存在する場合の一般化を改善する。
特に、スケール同変ネットワークはコンピュータビジョンタスクに適しており、オブジェクトの同じクラスが異なるスケールで現れる(例えば、ほとんどのセマンティックセグメンテーションタスク)。
近年、スケーリングと翻訳の半群と等価な畳み込み層が提案されている。
しかしながら、サブサンプリングとアップサンプリングの等価性は、いくつかのセグメンテーションアーキテクチャにおいて必要なビルディングブロックであるにもかかわらず、明示的には研究されていない。
U-Netは、最先端セマンティックセグメンテーションに使用される基本的な要素を含む、そのようなアーキテクチャの代表的な例である。
そこで本稿では, サブサンプリング層とアップサンプリング層を慎重に適用し, 上記のスケール等価層を用いて, 半群のスケールと翻訳にほぼ同値なU-Net(SEU-Net)を提案する。
さらに, スケール同変アーキテクチャにおける異なるスケールへの一般化を改善するために, スケールドロップアウトを提案する。
提案したSEU-Netは, セルセグメンテーションのためのOxford Pet IIITとDIC-C2DH-HeLaデータセットのセグメンテーションのために訓練されている。
u-netがスケールジッタリングで訓練された場合や、同変パイプライン内でアップサンプリング演算子を実行しないスケール同変アーキテクチャにおいて、u-netと比較すると、unseenスケールに対する一般化メトリックは劇的に改善される。
スケールドロップアウトは、pet実験におけるスケール同変モデルのより優れた一般化を誘導するが、細胞分裂実験ではない。
関連論文リスト
- Deep Neural Networks with Efficient Guaranteed Invariances [77.99182201815763]
我々は、性能改善の問題、特にディープニューラルネットワークのサンプル複雑性に対処する。
群同変畳み込みは同変表現を得るための一般的なアプローチである。
本稿では,各ストリームが異なる変換に不変なマルチストリームアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-02T20:44:45Z) - Moving Frame Net: SE(3)-Equivariant Network for Volumes [0.0]
移動フレームアプローチに基づく画像データのための回転・変換同変ニューラルネットワークを提案する。
入力段階において、移動フレームの計算を1つに減らし、そのアプローチを大幅に改善する。
我々の訓練されたモデルは、MedMNIST3Dの試験されたデータセットの大部分の医療ボリューム分類において、ベンチマークを上回ります。
論文 参考訳(メタデータ) (2022-11-07T10:25:38Z) - SemAffiNet: Semantic-Affine Transformation for Point Cloud Segmentation [94.11915008006483]
ポイントクラウドセマンティックセグメンテーションのためのSemAffiNetを提案する。
我々はScanNetV2とNYUv2データセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-05-26T17:00:23Z) - Equivariance versus Augmentation for Spherical Images [0.7388859384645262]
球面画像に適用した畳み込みニューラルネットワーク(CNN)における回転同値の役割を解析する。
我々は、S2CNNとして知られるグループ同変ネットワークと、データ増大量で訓練された標準非同変CNNの性能を比較した。
論文 参考訳(メタデータ) (2022-02-08T16:49:30Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z) - Robust Training of Neural Networks using Scale Invariant Architectures [70.67803417918854]
SGDとは対照的に、Adamのような適応勾配法は、現代のディープネットワークの堅牢なトレーニングを可能にする。
この一般的なアプローチは、パラメータと損失の再スケーリングに頑健であることを示す。
我々は、単にバニラSGDで訓練された場合、Adamのような適応的な手法で訓練されたBERTに匹敵する性能を達成する、SIBERTと呼ばれるスケール不変バージョンのBERTを設計する。
論文 参考訳(メタデータ) (2022-02-02T11:58:56Z) - Frame Averaging for Invariant and Equivariant Network Design [50.87023773850824]
フレーム平均化(FA)は、既知の(バックボーン)アーキテクチャを新しい対称性タイプに不変あるいは同変に適応するためのフレームワークである。
FAモデルが最大表現力を持つことを示す。
我々は,新しいユニバーサルグラフニューラルネット(GNN),ユニバーサルユークリッド運動不変点クラウドネットワーク,およびユークリッド運動不変メッセージパッシング(MP)GNNを提案する。
論文 参考訳(メタデータ) (2021-10-07T11:05:23Z) - Group Equivariant Subsampling [60.53371517247382]
サブサンプリングは、プールやストライド畳み込みの形で畳み込みニューラルネットワーク(CNN)で使用される。
まず、正確な翻訳同変CNNを構築するために使用できる翻訳同変サブサンプリング/アップサンプリング層を導入する。
次に、これらの層を一般群への変換を超えて一般化し、したがって群同変部分サンプリング/アップサンプリングを提案する。
論文 参考訳(メタデータ) (2021-06-10T16:14:00Z) - Scale-covariant and scale-invariant Gaussian derivative networks [0.0]
本稿では,大規模空間論と深層学習のハイブリッドアプローチとして,カスケード内のパラメータ化スケール空間演算を結合してディープラーニングアーキテクチャを構築する。
その結果,学習データに存在しない大規模パターンの分類に優れた性能が得られた。
論文 参考訳(メタデータ) (2020-11-30T13:15:10Z) - Scale Equivariance Improves Siamese Tracking [1.7188280334580197]
シームズトラッカーは、トラッキングをフレーム内のテンプレートと候補領域間の類似度推定に変換する。
非翻訳同変アーキテクチャは、トレーニング中に位置バイアスを引き起こす。
提案するSE-SiamFCは,レシピに従って構築されたSiamFCのスケール・等価な変種である。
論文 参考訳(メタデータ) (2020-07-17T16:55:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。