論文の概要: Pruning Sparse Tensor Neural Networks Enables Deep Learning for 3D
Ultrasound Localization Microscopy
- arxiv url: http://arxiv.org/abs/2402.09359v1
- Date: Wed, 14 Feb 2024 18:03:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-15 14:07:35.541281
- Title: Pruning Sparse Tensor Neural Networks Enables Deep Learning for 3D
Ultrasound Localization Microscopy
- Title(参考訳): pruning sparse tensor neural networksは3次元超音波局在顕微鏡のためのディープラーニングを可能にする
- Authors: Brice Rauby (1 and 2), Paul Xing (1), Jonathan Por\'ee (1), Maxime
Gasse (1, 2 and 3), Jean Provost (1 and 4) ((1) Polytechnique Montr\'eal, (2)
Mila - Quebec Artificial Intelligence Institute, (3) ServiceNow Inc., (4)
Montreal Heart Institute)
- Abstract要約: 本研究では,超音波データをスパース形式に効率よく変換し,関連する情報損失の影響について検討する。
提案手法は,高濃度環境下での従来のULMよりも2桁のメモリ要求量を削減する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ultrasound Localization Microscopy (ULM) is a non-invasive technique that
allows for the imaging of micro-vessels in vivo, at depth and with a resolution
on the order of ten microns. ULM is based on the sub-resolution localization of
individual microbubbles injected in the bloodstream. Mapping the whole
angioarchitecture requires the accumulation of microbubbles trajectories from
thousands of frames, typically acquired over a few minutes. ULM acquisition
times can be reduced by increasing the microbubble concentration, but requires
more advanced algorithms to detect them individually. Several deep learning
approaches have been proposed for this task, but they remain limited to 2D
imaging, in part due to the associated large memory requirements. Herein, we
propose to use sparse tensor neural networks to reduce memory usage in 2D and
to improve the scaling of the memory requirement for the extension of deep
learning architecture to 3D. We study several approaches to efficiently convert
ultrasound data into a sparse format and study the impact of the associated
loss of information. When applied in 2D, the sparse formulation reduces the
memory requirements by a factor 2 at the cost of a small reduction of
performance when compared against dense networks. In 3D, the proposed approach
reduces memory requirements by two order of magnitude while largely
outperforming conventional ULM in high concentration settings. We show that
Sparse Tensor Neural Networks in 3D ULM allow for the same benefits as dense
deep learning based method in 2D ULM i.e. the use of higher concentration in
silico and reduced acquisition time.
- Abstract(参考訳): 超音波局在顕微鏡(ulm)は、生体内における微小血管の深さおよび10ミクロンの解像度でのイメージングを可能にする非侵襲的技術である。
ULMは、血流中に注入された個々のマイクロバブルのサブレゾリューション局在に基づいている。
血管構造全体をマッピングするには、数千のフレームからマイクロバブルの軌跡を蓄積する必要がある。
ulm取得時間は、マイクロバブル濃度を増加させることで削減できるが、個別に検出するにはより高度なアルゴリズムが必要である。
このタスクには、いくつかのディープラーニングアプローチが提案されているが、それゆえ、大きなメモリ要件が伴っているため、2dイメージングに限定されている。
本稿では,2次元のメモリ使用量を削減するためにスパーステンソルニューラルネットワークを使用し,ディープラーニングアーキテクチャを3次元に拡張するためのメモリ要求のスケーリングを改善することを提案する。
本研究では,超音波データをスパース形式に効率的に変換し,関連する情報損失の影響について検討する。
スパース定式化を2Dに適用すると、高密度ネットワークと比較した場合の性能低下が小さく、第2因子によるメモリ要求を低減できる。
3dでは,提案手法はメモリ要求を2桁削減するが,高濃度設定では従来のulmをほぼ上回っている。
3次元ULMにおけるスパーステンソルニューラルネットワークは、2次元ULMにおける濃密な深層学習法と同じ利点、すなわち、高濃度のシリカの使用と取得時間の短縮を可能にする。
関連論文リスト
- N-BVH: Neural ray queries with bounding volume hierarchies [51.430495562430565]
3Dコンピュータグラフィックスでは、シーンのメモリ使用量の大部分がポリゴンとテクスチャによるものである。
N-BVHは3次元の任意の光線クエリに応答するように設計されたニューラル圧縮アーキテクチャである。
本手法は, 視認性, 深度, 外観特性を忠実に近似する。
論文 参考訳(メタデータ) (2024-05-25T13:54:34Z) - Self-STORM: Deep Unrolled Self-Supervised Learning for Super-Resolution Microscopy [55.2480439325792]
我々は、シーケンス固有のモデルベースのオートエンコーダをトレーニングすることで、そのようなデータの必要性を軽減する、深層無学習の自己教師付き学習を導入する。
提案手法は, 監視対象の性能を超過する。
論文 参考訳(メタデータ) (2024-03-25T17:40:32Z) - StableDreamer: Taming Noisy Score Distillation Sampling for Text-to-3D [88.66678730537777]
本稿では3つの進歩を取り入れた方法論であるStableDreamerを紹介する。
まず、SDS生成前の等価性と、簡単な教師付きL2再構成損失を定式化する。
第2に,画像空間拡散は幾何学的精度に寄与するが,色調の鮮明化には潜時空間拡散が不可欠であることを示す。
論文 参考訳(メタデータ) (2023-12-02T02:27:58Z) - A Deep Learning Framework for Spatiotemporal Ultrasound Localization
Microscopy [4.779980560308821]
本研究は,高マイクロバブル濃度の超音波取得から高密度血管網を復元するDeep Learningアプローチを提案する。
2光子顕微鏡から分割した現実的なマウス脳微小血管ネットワークは、3次元畳み込みニューラルネットワークのトレーニングに使用された。
3D-CNNのアプローチは、データの一部とインビボでのラット脳獲得を用いて、シリコで検証された。
論文 参考訳(メタデータ) (2023-10-12T08:58:01Z) - GLEAM: Greedy Learning for Large-Scale Accelerated MRI Reconstruction [50.248694764703714]
アンロールされたニューラルネットワークは、最近最先端の加速MRI再構成を達成した。
これらのネットワークは、物理ベースの一貫性とニューラルネットワークベースの正規化を交互に組み合わせることで、反復最適化アルゴリズムをアンロールする。
我々は,高次元画像設定のための効率的なトレーニング戦略である加速度MRI再構成のためのグレディ・ラーニングを提案する。
論文 参考訳(メタデータ) (2022-07-18T06:01:29Z) - Memory-efficient Segmentation of High-resolution Volumetric MicroCT
Images [11.723370840090453]
本稿では,3次元高解像度画像分割のためのメモリ効率の高いネットワークアーキテクチャを提案する。
このネットワークは、2段階のU-netベースのカスケードフレームワークを通じて、グローバル機能とローカル機能の両方を組み込んでいる。
実験により, セグメント化精度とメモリ効率の両方の観点から, 最先端の3Dセグメンテーション法より優れていることが示された。
論文 参考訳(メタデータ) (2022-05-31T16:42:48Z) - One-dimensional Deep Low-rank and Sparse Network for Accelerated MRI [19.942978606567547]
核磁気共鳴画像(MRI)における深層学習の驚くべき性能
最先端のディープラーニング再構築の多くは、強力な畳み込みニューラルネットワークを採用し、2D畳み込みを行う。
我々は1次元の畳み込みを探求する新しいアプローチを提案し、深層ネットワークの訓練と一般化をより容易にする。
論文 参考訳(メタデータ) (2021-12-09T06:39:55Z) - MCUNetV2: Memory-Efficient Patch-based Inference for Tiny Deep Learning [72.80896338009579]
メモリボトルネックは畳み込みニューラルネットワーク(CNN)の設計における不均衡なメモリ分布に起因する。
本稿では,ピークメモリを大幅に削減するパッチ・バイ・パッチ・推論スケジューリングを提案する。
ニューラルアーキテクチャサーチによるプロセスを自動化し、ニューラルアーキテクチャと推論スケジューリングを共同で最適化し、MCUNetV2に導いた。
論文 参考訳(メタデータ) (2021-10-28T17:58:45Z) - Multi-view Depth Estimation using Epipolar Spatio-Temporal Networks [87.50632573601283]
一つのビデオから多視点深度を推定する新しい手法を提案する。
提案手法は,新しいEpipolar Spatio-Temporal Transformer(EST)を用いて時間的コヒーレントな深度推定を行う。
最近のMixture-of-Expertsモデルにインスパイアされた計算コストを削減するため、我々はコンパクトなハイブリッドネットワークを設計する。
論文 参考訳(メタデータ) (2020-11-26T04:04:21Z) - VC-Net: Deep Volume-Composition Networks for Segmentation and
Visualization of Highly Sparse and Noisy Image Data [13.805816310795256]
本稿では,3次元微小血管のロバスト抽出のためのエンドツーエンド深層学習手法VC-Netを提案する。
中心となる新規性は、ボリューム可視化技術(MIP)を自動利用して、3Dデータ探索を強化することである。
マルチストリーム畳み込みニューラルネットワークは、それぞれ3次元体積と2次元MIPの特徴を学習し、その相互依存性を結合体積-合成埋め込み空間で探索するために提案される。
論文 参考訳(メタデータ) (2020-09-14T04:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。