論文の概要: Shape-Tailored Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2102.08497v1
- Date: Tue, 16 Feb 2021 23:32:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-19 04:54:07.496729
- Title: Shape-Tailored Deep Neural Networks
- Title(参考訳): 形状整列型深層ニューラルネットワーク
- Authors: Naeemullah Khan, Angira Sharma, Ganesh Sundaramoorthi, Philip H. S.
Torr
- Abstract要約: ST-DNN(Shape-Tailored Deep Neural Networks)の紹介
ST-DNNは、固定形状(正方形)の近傍からデータを集約する畳み込みネットワーク(CNN)を拡張し、任意形状の領域で定義された記述子を計算する。
ST-DNNが3〜4桁小さく、CNNがセグメンテーションに使用されることを示しています。
- 参考スコア(独自算出の注目度): 87.55487474723994
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present Shape-Tailored Deep Neural Networks (ST-DNN). ST-DNN extend
convolutional networks (CNN), which aggregate data from fixed shape (square)
neighborhoods, to compute descriptors defined on arbitrarily shaped regions.
This is natural for segmentation, where descriptors should describe regions
(e.g., of objects) that have diverse shape. We formulate these descriptors
through the Poisson partial differential equation (PDE), which can be used to
generalize convolution to arbitrary regions. We stack multiple PDE layers to
generalize a deep CNN to arbitrary regions, and apply it to segmentation. We
show that ST-DNN are covariant to translations and rotations and robust to
domain deformations, natural for segmentation, which existing CNN based methods
lack. ST-DNN are 3-4 orders of magnitude smaller then CNNs used for
segmentation. We show that they exceed segmentation performance compared to
state-of-the-art CNN-based descriptors using 2-3 orders smaller training sets
on the texture segmentation problem.
- Abstract(参考訳): 形状制御型ディープニューラルネットワーク(ST-DNN)を紹介します。
ST-DNNは、固定形状(正方形)の近傍からデータを集約する畳み込みネットワーク(CNN)を拡張し、任意形状の領域で定義された記述子を計算する。
これはセグメンテーションにおいて自然であり、記述子は多様な形を持つ領域(例えば物体)を記述すべきである。
我々はこれらの記述子をポアソン偏微分方程式(PDE)を通して定式化し、任意の領域への畳み込みを一般化することができる。
複数のPDE層を積み重ねて、深いCNNを任意の領域に一般化し、セグメンテーションに適用する。
ST-DNNは翻訳と回転に共変であり、既存のCNNベースの方法に欠けているセグメンテーションに自然であるドメイン変形に堅牢であることを示す。
ST-DNNは3~4桁小さく、CNNはセグメンテーションに使用される。
テクスチャセグメンテーション問題に対する2~3桁のトレーニングセットを用いて,最先端CNNベースの記述子と比較してセグメンテーション性能を上回ることを示す。
関連論文リスト
- Model Parallel Training and Transfer Learning for Convolutional Neural Networks by Domain Decomposition [0.0]
ディープ畳み込みニューラルネットワーク(CNN)は、幅広い画像処理アプリケーションで非常に成功したことが示されている。
モデルパラメータの増大と大量のトレーニングデータの増加により、複雑なCNNを効率的に訓練するための並列化戦略が必要である。
論文 参考訳(メタデータ) (2024-08-26T17:35:01Z) - What Can Be Learnt With Wide Convolutional Neural Networks? [69.55323565255631]
カーネルシステムにおける無限大の深層CNNについて検討する。
我々は,深部CNNが対象関数の空間スケールに適応していることを証明する。
我々は、別の深部CNNの出力に基づいて訓練された深部CNNの一般化誤差を計算して結論付ける。
論文 参考訳(メタデータ) (2022-08-01T17:19:32Z) - Towards a General Purpose CNN for Long Range Dependencies in
$\mathrm{N}$D [49.57261544331683]
構造変化のない任意の解像度,次元,長さのタスクに対して,連続的な畳み込みカーネルを備えた単一CNNアーキテクチャを提案する。
1$mathrmD$)とビジュアルデータ(2$mathrmD$)の幅広いタスクに同じCCNNを適用することで、我々のアプローチの汎用性を示す。
私たちのCCNNは競争力があり、検討されたすべてのタスクで現在の最先端を上回ります。
論文 参考訳(メタデータ) (2022-06-07T15:48:02Z) - LatticeNet: Fast Spatio-Temporal Point Cloud Segmentation Using
Permutohedral Lattices [27.048998326468688]
深層畳み込みニューラルネットワーク(CNN)は、画像のセグメンテーションに際し、優れた性能を示している。
本稿では,3次元セマンティックセグメンテーションの新たなアプローチであるLatticeNetを提案する。
本稿では,本手法が最先端性能を実現する複数のデータセット上での3次元セグメント化の結果について述べる。
論文 参考訳(メタデータ) (2021-08-09T10:17:27Z) - LGNN: A Context-aware Line Segment Detector [53.424521592941936]
我々はLine Graph Neural Network (LGNN) と呼ばれる新しいリアルタイム線分検出手法を提案する。
我々のLGNNは、線分を直接提案するディープ畳み込みニューラルネットワーク(DCNN)と、それらの接続性を推論するためのグラフニューラルネットワーク(GNN)モジュールを使用している。
最先端と比較して、LGNNは精度を損なうことなくほぼリアルタイムのパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-08-13T13:23:18Z) - CyCNN: A Rotation Invariant CNN using Polar Mapping and Cylindrical
Convolution Layers [2.4316550366482357]
本稿では、入力画像の極性マッピングを利用して回転を変換する深部CNNモデルCyCNNを提案する。
CyConv層は円筒状のスライドウインドウ(CSW)機構を利用して、畳み込み層における境界単位の入力イメージ受容場を垂直に拡張する。
トレーニング中にデータ拡張がなければ,CyCNNは従来のCNNモデルと比較して,分類精度を大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-07-21T04:05:35Z) - Implicit Convex Regularizers of CNN Architectures: Convex Optimization
of Two- and Three-Layer Networks in Polynomial Time [70.15611146583068]
本稿では,ReLUアクティベーションを用いた畳み込みニューラルネットワーク(CNN)のトレーニングについて検討する。
我々は,データサンプル数,ニューロン数,データ次元に関して,厳密な凸最適化を導入する。
論文 参考訳(メタデータ) (2020-06-26T04:47:20Z) - On the Number of Linear Regions of Convolutional Neural Networks [0.6206641883102021]
深いCNNは浅いCNNよりも強力な表現性を持ち、一方CNNはパラメータごとに完全に接続されたNNよりも表現性が高い。
以上の結果から,より深いCNNは浅いCNNよりも強力な表現性を持ち,一方CNNはパラメータごとの完全接続NNよりも表現性が高いことが示唆された。
論文 参考訳(メタデータ) (2020-06-01T14:38:05Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。