論文の概要: 3D Solid Spherical Bispectrum CNNs for Biomedical Texture Analysis
- arxiv url: http://arxiv.org/abs/2004.13371v2
- Date: Tue, 2 Jun 2020 11:21:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 23:17:33.715659
- Title: 3D Solid Spherical Bispectrum CNNs for Biomedical Texture Analysis
- Title(参考訳): バイオメディカルテクスチャ解析のための3次元球面CNN
- Authors: Valentin Oreiller, Vincent Andrearczyk, Julien Fageot, John O. Prior,
Adrien Depeursinge
- Abstract要約: 局所回転不変量 (LRI) 演算子は生物医学的テクスチャ解析において大きな可能性を示している。
浅層畳み込みニューラルネットワーク(CNN)に埋め込まれたLRI層の設計におけるスペクトル上の双スペクトルを用いた3次元画像解析の利点について検討する。
- 参考スコア(独自算出の注目度): 3.579867431007686
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Locally Rotation Invariant (LRI) operators have shown great potential in
biomedical texture analysis where patterns appear at random positions and
orientations. LRI operators can be obtained by computing the responses to the
discrete rotation of local descriptors, such as Local Binary Patterns (LBP) or
the Scale Invariant Feature Transform (SIFT). Other strategies achieve this
invariance using Laplacian of Gaussian or steerable wavelets for instance,
preventing the introduction of sampling errors during the discretization of the
rotations. In this work, we obtain LRI operators via the local projection of
the image on the spherical harmonics basis, followed by the computation of the
bispectrum, which shares and extends the invariance properties of the spectrum.
We investigate the benefits of using the bispectrum over the spectrum in the
design of a LRI layer embedded in a shallow Convolutional Neural Network (CNN)
for 3D image analysis. The performance of each design is evaluated on two
datasets and compared against a standard 3D CNN. The first dataset is made of
3D volumes composed of synthetically generated rotated patterns, while the
second contains malignant and benign pulmonary nodules in Computed Tomography
(CT) images. The results indicate that bispectrum CNNs allows for a
significantly better characterization of 3D textures than both the spectral and
standard CNN. In addition, it can efficiently learn with fewer training
examples and trainable parameters when compared to a standard convolutional
layer.
- Abstract(参考訳): 局所回転不変量(LRI)演算子は、ランダムな位置と向きにパターンが現れるバイオメディカルテクスチャ解析において大きな可能性を示している。
LRI演算子は、ローカルバイナリパターン (LBP) やスケール不変特徴変換 (SIFT) などの局所記述子の離散回転に対する応答を計算することで得られる。
他の戦略では、例えばガウスまたはステアブルウェーブレットのラプラシアンを用いてこの不変性を達成し、回転の離散化中にサンプリングエラーが発生するのを防ぐ。
本研究では、球面高調波に基づく画像の局所投影によりLRI演算子を取得し、続いてスペクトルの不変性を共有して拡張する双スペクトルの計算を行う。
浅層畳み込みニューラルネットワーク(CNN)に埋め込まれたLRI層の設計におけるスペクトル上の双スペクトルを用いた3次元画像解析の利点について検討する。
各設計の性能は2つのデータセットで評価され、標準の3D CNNと比較される。
第1のデータセットは合成的に生成された回転パターンからなる3Dボリュームで構成され、第2のデータセットはCT画像に悪性および良性肺結節を含む。
その結果、bispectrum cnnは、スペクトルと標準cnnの両方よりも、はるかに優れた3dテクスチャのキャラクタリゼーションを可能にすることが示唆された。
さらに、標準的な畳み込み層と比較して、トレーニング例やトレーニング可能なパラメータを少なくして、効率的に学習することができる。
関連論文リスト
- R$^2$-Gaussian: Rectifying Radiative Gaussian Splatting for Tomographic Reconstruction [53.19869886963333]
3次元ガウススプラッティング(3DGS)は画像のレンダリングと表面再構成において有望な結果を示した。
本稿では,Sparse-viewトモグラフィ再構成のための3DGSベースのフレームワークであるR2$-Gaussianを紹介する。
論文 参考訳(メタデータ) (2024-05-31T08:39:02Z) - CVT-xRF: Contrastive In-Voxel Transformer for 3D Consistent Radiance Fields from Sparse Inputs [65.80187860906115]
スパース入力によるNeRFの性能向上のための新しい手法を提案する。
まず, サンプル線が, 3次元空間内の特定のボクセルと交差することを保証するために, ボクセルを用いた放射線サンプリング戦略を採用する。
次に、ボクセル内の追加点をランダムにサンプリングし、トランスフォーマーを適用して各線上の他の点の特性を推測し、ボリュームレンダリングに組み込む。
論文 参考訳(メタデータ) (2024-03-25T15:56:17Z) - Weighted Monte Carlo augmented spherical Fourier-Bessel convolutional
layers for 3D abdominal organ segmentation [0.31410859223862103]
フィルタ分解に基づく3次元群同変ニューラルネットワークは, 3次元画像特徴抽出において有望な安定性とデータ効率を示す。
本稿では、3次元医用画像分割のためのパラメータ共有アフィン群同変ニューラルネットワークについて述べる。
採用した非パラメータ共有戦略の効率性と柔軟性は、ボリュームデータに対する3Dアフィン群同変畳み込みニューラルネットワークの効率的な実装を可能にする。
論文 参考訳(メタデータ) (2024-02-26T18:51:15Z) - Moving Frame Net: SE(3)-Equivariant Network for Volumes [0.0]
移動フレームアプローチに基づく画像データのための回転・変換同変ニューラルネットワークを提案する。
入力段階において、移動フレームの計算を1つに減らし、そのアプローチを大幅に改善する。
我々の訓練されたモデルは、MedMNIST3Dの試験されたデータセットの大部分の医療ボリューム分類において、ベンチマークを上回ります。
論文 参考訳(メタデータ) (2022-11-07T10:25:38Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Spherical Transformer: Adapting Spherical Signal to CNNs [53.18482213611481]
Spherical Transformerは、球状信号を標準CNNで直接処理できるベクトルに変換できます。
我々は,球面MNIST認識,3次元オブジェクト分類,全方向画像セマンティックセグメンテーションの課題に対するアプローチを評価する。
論文 参考訳(メタデータ) (2021-01-11T12:33:16Z) - LodoNet: A Deep Neural Network with 2D Keypoint Matchingfor 3D LiDAR
Odometry Estimation [22.664095688406412]
本稿では,LiDARフレームを画像空間に転送し,画像特徴抽出として問題を再構成することを提案する。
特徴抽出のためのスケール不変特徴変換(SIFT)の助けを借りて、マッチングキーポイントペア(MKP)を生成することができる。
畳み込みニューラルネットワークパイプラインは、抽出したMKPによるLiDARのオドメトリー推定のために設計されている。
提案手法,すなわちLodoNet は,KITTI odometry 推定ベンチマークで評価され,最先端の手法と同等あるいはそれ以上の結果が得られた。
論文 参考訳(メタデータ) (2020-09-01T01:09:41Z) - Learning Local Neighboring Structure for Robust 3D Shape Representation [143.15904669246697]
3Dメッシュの表現学習は多くのコンピュータビジョンやグラフィックスアプリケーションにおいて重要である。
局所構造認識型異方性畳み込み操作(LSA-Conv)を提案する。
本モデルでは,3次元形状復元において最先端の手法に比べて顕著な改善が得られた。
論文 参考訳(メタデータ) (2020-04-21T13:40:03Z) - Cylindrical Convolutional Networks for Joint Object Detection and
Viewpoint Estimation [76.21696417873311]
3次元空間で定義された畳み込みカーネルの円筒形表現を利用する学習可能なモジュールである円筒型畳み込みネットワーク(CCN)を導入する。
CCNはビュー固有の畳み込みカーネルを通してビュー固有の特徴を抽出し、各視点におけるオブジェクトカテゴリスコアを予測する。
本実験は,円柱状畳み込みネットワークが関節物体の検出と視点推定に与える影響を実証する。
論文 参考訳(メタデータ) (2020-03-25T10:24:58Z) - Local Rotation Invariance in 3D CNNs [3.579867431007686]
局所回転不変量 (LRI) 画像解析は多くの応用において基礎となることが示されている。
本稿では,LRI CNNを指向性に敏感に取得するためのいくつかの手法を提案し,比較する。
その結果、LRI画像解析の重要性が示され、トレーニング可能なパラメータが大幅に削減され、データ拡張で訓練された標準3D CNNよりも優れていた。
論文 参考訳(メタデータ) (2020-03-19T16:24:49Z) - Roto-Translation Equivariant Convolutional Networks: Application to
Histopathology Image Analysis [11.568329857588099]
畳み込みネットワークにおける特殊ユークリッド運動群SE(2)の幾何学的構造を符号化する枠組みを提案する。
提案手法を用いることで,一貫した性能向上が達成できることを示す。
論文 参考訳(メタデータ) (2020-02-20T13:44:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。