論文の概要: Tiny-VBF: Resource-Efficient Vision Transformer based Lightweight
Beamformer for Ultrasound Single-Angle Plane Wave Imaging
- arxiv url: http://arxiv.org/abs/2311.12082v1
- Date: Mon, 20 Nov 2023 10:47:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-23 03:23:15.648025
- Title: Tiny-VBF: Resource-Efficient Vision Transformer based Lightweight
Beamformer for Ultrasound Single-Angle Plane Wave Imaging
- Title(参考訳): Tiny-VBF:超音波単一角波イメージングのための資源効率の高いビジョントランスを用いた軽量ビームフォーマ
- Authors: Abdul Rahoof, Vivek Chaturvedi, Mahesh Raveendranatha Panicker, and
Muhammad Shafique
- Abstract要約: 本研究では、新しいビジョントランスを用いた小型ビームフォーマ(Tiny-VBF)を提案する。
Tiny-VBFの出力は、非常に低いフレームレートを必要とする高速エンベロープ検出を提供する。
我々は、Zynq UltraScale+ MPSoC ZCU104 FPGA上で、加速器アーキテクチャを提案し、Tiny-VBFモデルを実装した。
- 参考スコア(独自算出の注目度): 4.15681035147785
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accelerating compute intensive non-real-time beam-forming algorithms in
ultrasound imaging using deep learning architectures has been gaining momentum
in the recent past. Nonetheless, the complexity of the state-of-the-art deep
learning techniques poses challenges for deployment on resource-constrained
edge devices. In this work, we propose a novel vision transformer based tiny
beamformer (Tiny-VBF), which works on the raw radio-frequency channel data
acquired through single-angle plane wave insonification. The output of our
Tiny-VBF provides fast envelope detection requiring very low frame rate, i.e.
0.34 GOPs/Frame for a frame size of 368 x 128 in comparison to the
state-of-the-art deep learning models. It also exhibited an 8% increase in
contrast and gains of 5% and 33% in axial and lateral resolution respectively
when compared to Tiny-CNN on in-vitro dataset. Additionally, our model showed a
4.2% increase in contrast and gains of 4% and 20% in axial and lateral
resolution respectively when compared against conventional Delay-and-Sum (DAS)
beamformer. We further propose an accelerator architecture and implement our
Tiny-VBF model on a Zynq UltraScale+ MPSoC ZCU104 FPGA using a hybrid
quantization scheme with 50% less resource consumption compared to the
floating-point implementation, while preserving the image quality.
- Abstract(参考訳): 近年,ディープラーニングアーキテクチャを用いた超音波画像における計算集約非リアルタイムビーム生成アルゴリズムの高速化が活発化している。
それでも、最先端のディープラーニング技術の複雑さは、リソース制約のあるエッジデバイスへのデプロイに課題をもたらす。
本研究では,単角平面波のインソニゼーションにより取得した生の高周波チャネルデータに基づいて,新しい視覚トランスフォーマ(tiny-vbf)を提案する。
Tiny-VBFの出力は、最先端のディープラーニングモデルと比較して、フレームサイズが368 x 128の0.34 GOPs/Frameを必要とする高速エンベロープ検出を提供する。
また, in-vitroデータセットのtiny-cnnと比較して, コントラストが8%上昇し, 軸および横分解能が5%, 33%上昇した。
また, 従来のdasビームフォーマーと比較して, コントラストが4.2%増加し, 軸方向および横方向の分解能が4%, 20%向上した。
さらに,Zynq UltraScale+MPSoC ZCU104 FPGA上でのTiny-VBFモデルを実装し,画像品質を保ちながら,フローティングポイントの実装に比べて50%少ない資源消費のハイブリッド量子化方式を提案する。
関連論文リスト
- FlowDCN: Exploring DCN-like Architectures for Fast Image Generation with Arbitrary Resolution [33.07779971446476]
任意の解像度で高画質画像を効率よく生成できる、純粋に畳み込みに基づく生成モデルであるFlowDCNを提案する。
FlowDCNは256Times256$ ImageNet Benchmarkと同等の解像度外挿結果で最先端の4.30 sFIDを実現している。
FlowDCNはスケーラブルで柔軟な画像合成のための有望なソリューションであると考えています。
論文 参考訳(メタデータ) (2024-10-30T02:48:50Z) - Dynamic Diffusion Transformer [67.13876021157887]
Diffusion Transformer (DiT) は優れた性能を示したが、かなりの計算コストに悩まされている。
本研究では,動的拡散変換器 (DyDiT) を提案する。
3%の微調整により,DiT-XLのFLOPを51%削減し,生成を1.73高速化し,ImageNet上でのFIDスコア2.07を達成する。
論文 参考訳(メタデータ) (2024-10-04T14:14:28Z) - HIRI-ViT: Scaling Vision Transformer with High Resolution Inputs [102.4965532024391]
Vision Transformer(ViT)とConvolution Neural Network(CNN)のハイブリッドディープモデルは、ビジョンタスクのための強力なバックボーンのクラスとして登場した。
高分解能入力に適した4段のViTから5段のViTにアップグレードしたHIgh-Resolution Inputs(HIRI-ViT)のハイブリッドバックボーンを提案する。
HiRI-ViTは448$times$448の入力でImageNetで84.3%の最高のTop-1精度を達成し、iFormer-Sの83.4%を224$timesで0.9%改善した。
論文 参考訳(メタデータ) (2024-03-18T17:34:29Z) - Dynamic Frame Interpolation in Wavelet Domain [57.25341639095404]
ビデオフレームは、より流動的な視覚体験のためにフレームレートを上げることができる、重要な低レベルな計算ビジョンタスクである。
既存の手法は、高度なモーションモデルと合成ネットワークを利用することで大きな成功を収めた。
WaveletVFIは、同様の精度を維持しながら最大40%の計算を削減できるため、他の最先端技術に対してより効率的に処理できる。
論文 参考訳(メタデータ) (2023-09-07T06:41:15Z) - ConvNeXt-ChARM: ConvNeXt-based Transform for Efficient Neural Image
Compression [18.05997169440533]
ConvNeXt-ChARMは,効率的なConvNeXtベースのトランスフォーメーションコーディングフレームワークである。
ConvNeXt-ChARMは、VVC参照エンコーダ(VTM-18.0)と最先端の学習画像圧縮手法であるSwinT-ChARMに対して、平均5.24%と1.22%と、一貫したBDレート(PSNR)の低下をもたらすことを示した。
論文 参考訳(メタデータ) (2023-07-12T11:45:54Z) - Efficient Context Integration through Factorized Pyramidal Learning for
Ultra-Lightweight Semantic Segmentation [1.0499611180329804]
本稿では,FPL(Facterized Pyramidal Learning)モジュールを提案する。
空間ピラミッドを2つのステージに分解し,モジュール内での簡易かつ効率的な特徴融合により,悪名高いチェッカーボード効果を解決する。
FPLモジュールとFIRユニットをベースとしたFPLNetと呼ばれる超軽量リアルタイムネットワークを提案する。
論文 参考訳(メタデータ) (2023-02-23T05:34:51Z) - Sophisticated deep learning with on-chip optical diffractive tensor
processing [5.081061839052458]
フォトニック集積回路は、電子回路によってもたらされる帯域制限と電力ウォールを緩和するための効率的なアプローチを提供する。
我々は、オンチップ回折により、光畳み込みユニット(OCU)と呼ばれる畳み込み加速度を実装する光学コンピューティングアーキテクチャを提案する。
OCUを基本単位として、光学畳み込みニューラルネットワーク(oCNN)を構築し、分類と回帰という2つの一般的なディープラーニングタスクを実装する。
論文 参考訳(メタデータ) (2022-12-20T03:33:26Z) - RTMV: A Ray-Traced Multi-View Synthetic Dataset for Novel View Synthesis [104.53930611219654]
約2000の複雑なシーンからレンダリングされた300k画像からなる,新しいビュー合成のための大規模合成データセットを提案する。
データセットは、新しいビュー合成のための既存の合成データセットよりも桁違いに大きい。
高品質な3Dメッシュの4つのソースを使用して、私たちのデータセットのシーンは、カメラビュー、照明、形状、材料、テクスチャの難しいバリエーションを示します。
論文 参考訳(メタデータ) (2022-05-14T13:15:32Z) - TensoRF: Tensorial Radiance Fields [74.16791688888081]
本稿では、放射場をモデル化・再構成するための新しいアプローチであるTensoRFを提案する。
我々は,シーンの放射界を4次元テンソルとしてモデル化し,ボクセルごとのマルチチャネル特徴を持つ3次元ボクセル格子を表現した。
CP分解したTensoRFは高速な再構成(30分)を実現し,レンダリング品質が向上し,NeRFに比べてモデルサイズが小さい(4MB)。
論文 参考訳(メタデータ) (2022-03-17T17:59:59Z) - Deep Unfolded Recovery of Sub-Nyquist Sampled Ultrasound Image [94.42139459221784]
本稿では,ISTAアルゴリズムの展開に基づく時空間領域におけるサブNyquistサンプルからの再構成手法を提案する。
本手法は,高品質な撮像性能を確保しつつ,配列要素数,サンプリングレート,計算時間を削減できる。
論文 参考訳(メタデータ) (2021-03-01T19:19:38Z) - not-so-BigGAN: Generating High-Fidelity Images on Small Compute with
Wavelet-based Super-Resolution [23.15896056344987]
Nsb-GANは、深層生成モデルのための簡易かつ費用対効果の2段階のトレーニングフレームワークである。
ウェーブレットに基づくダウンサンプリング法は、ピクセルベースの方法よりも多くの構造情報を保存する。
ImageNet 512x512では、10.59のFr'echet Inception Distance(FID)がベースラインのBigGANモデルを上回っている。
論文 参考訳(メタデータ) (2020-09-09T17:29:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。