論文の概要: iWave3D: End-to-end Brain Image Compression with Trainable 3-D Wavelet
Transform
- arxiv url: http://arxiv.org/abs/2109.08942v1
- Date: Sat, 18 Sep 2021 14:38:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-23 10:34:35.300698
- Title: iWave3D: End-to-end Brain Image Compression with Trainable 3-D Wavelet
Transform
- Title(参考訳): iWave3D:トレーニング可能な3Dウェーブレット変換によるエンドツーエンドの脳画像圧縮
- Authors: Dongmei Xue, Haichuan Ma, Li Li, Dong Liu, Zhiwei Xiong
- Abstract要約: 本稿では,3次元畳み込みニューラルネットワークによって予測と更新のステップを置き換える,リフト方式に基づくトレーニング可能な3次元ウェーブレット変換を提案する。
実験の結果,平均BD-PSNRではJP3Dが2.012dBで有意に優れていた。
- 参考スコア(独自算出の注目度): 42.14812529290784
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the rapid development of whole brain imaging technology, a large number
of brain images have been produced, which puts forward a great demand for
efficient brain image compression methods. At present, the most commonly used
compression methods are all based on 3-D wavelet transform, such as JP3D.
However, traditional 3-D wavelet transforms are designed manually with certain
assumptions on the signal, but brain images are not as ideal as assumed. What's
more, they are not directly optimized for compression task. In order to solve
these problems, we propose a trainable 3-D wavelet transform based on the
lifting scheme, in which the predict and update steps are replaced by 3-D
convolutional neural networks. Then the proposed transform is embedded into an
end-to-end compression scheme called iWave3D, which is trained with a large
amount of brain images to directly minimize the rate-distortion loss.
Experimental results demonstrate that our method outperforms JP3D significantly
by 2.012 dB in terms of average BD-PSNR.
- Abstract(参考訳): 脳画像技術全体の急速な発展に伴い、多数の脳画像が作成され、効率的な脳画像圧縮方法の需要が高まっている。
現在最もよく使われている圧縮法はJP3Dのような3次元ウェーブレット変換に基づいている。
しかし、従来の3次元ウェーブレット変換は信号の特定の仮定で手動で設計されているが、脳画像は想定ほど理想的ではない。
さらに、圧縮タスクに直接最適化されていない。
これらの問題を解決するために,昇降方式に基づくトレーニング可能な3次元ウェーブレット変換を提案し,予測と更新のステップを3次元畳み込みニューラルネットワークに置き換えた。
そして、提案した変換をiWave3Dと呼ばれるエンドツーエンドの圧縮スキームに埋め込む。
実験の結果,平均BD-PSNRではJP3Dが2.012dBで有意に優れていた。
関連論文リスト
- Deep Diffusion Image Prior for Efficient OOD Adaptation in 3D Inverse Problems [61.85478918618346]
本稿では,従来のディープイメージに形式的な接続を導入することで,最近のSCD適応法を一般化するDDIPを提案する。
本稿では,D3IPと呼ばれる3次元計測のための効率的な適応手法を提案し,DDIPを桁違いに高速化する。
本手法は, 学習対象とは大きく異なるファントム画像のみを用いて, 事前学習した生成的画像から多種多様な3次元再構成タスクを解くことができることを示す。
論文 参考訳(メタデータ) (2024-07-15T12:00:46Z) - NeRFCodec: Neural Feature Compression Meets Neural Radiance Fields for Memory-Efficient Scene Representation [22.151167286623416]
メモリ効率のよいシーン表現のための非線形変換,量子化,エントロピー符号化を統合したエンドツーエンドのNeRF圧縮フレームワークを提案する。
提案手法は既存のNeRF圧縮法より優れており、0.5MBのメモリ予算で高品質な新規ビュー合成を可能にする。
論文 参考訳(メタデータ) (2024-04-02T15:49:00Z) - Real-Time Radiance Fields for Single-Image Portrait View Synthesis [85.32826349697972]
本研究では,1つの未提示画像からリアルタイムに3D表現を推測・描画するワンショット手法を提案する。
一つのRGB入力が与えられた場合、画像エンコーダは、ボリュームレンダリングによる3次元新規ビュー合成のためのニューラルラディアンスフィールドの標準三面体表現を直接予測する。
提案手法は消費者ハードウェア上で高速(24fps)であり,テスト時間最適化を必要とする強力なGAN反転ベースラインよりも高品質な結果が得られる。
論文 参考訳(メタデータ) (2023-05-03T17:56:01Z) - SnakeVoxFormer: Transformer-based Single Image\\Voxel Reconstruction
with Run Length Encoding [9.691609196086015]
SnakeVoxFormerは、トランスフォーマーを用いた単一の画像から、ボクセル空間内での3Dオブジェクト再構成である。
異なるボクセルトラバース戦略がエンコーディングと再構築の効果に与える影響を示す。
論文 参考訳(メタデータ) (2023-03-28T20:16:13Z) - Improving 3D Imaging with Pre-Trained Perpendicular 2D Diffusion Models [52.529394863331326]
本稿では,2つの垂直2次元拡散モデルを用いて3次元逆問題の解法を提案する。
MRI Z軸超解像, 圧縮センシングMRI, スパースCTなどの3次元医用画像再構成作業に有効である。
論文 参考訳(メタデータ) (2023-03-15T08:28:06Z) - Inflating 2D Convolution Weights for Efficient Generation of 3D Medical
Images [35.849240945334]
3次元医用画像は取得・注釈するのに高価であり,多くのパラメータが3次元畳み込みに関与している。
本稿では3D Split&Shuffle-GANと呼ばれる新しいGANモデルを提案する。
提案手法は,パラメータが大幅に少ない3次元画像の画質向上につながることを示す。
論文 参考訳(メタデータ) (2022-08-08T06:31:00Z) - aiWave: Volumetric Image Compression with 3-D Trained Affine
Wavelet-like Transform [43.984890290691695]
最も一般的なボリューム画像圧縮法はJP3Dのようなウェーブレット変換に基づいている。
本稿では,信号依存型および非分離型変換を実現するために,まず3次元トレーニングウェーブレット様変換を設計する。
次に、アフィンウェーブレットベースを導入し、ボリューム画像の異なる領域における様々な局所的相関をキャプチャする。
論文 参考訳(メタデータ) (2022-03-11T10:02:01Z) - Pix2Vox++: Multi-scale Context-aware 3D Object Reconstruction from
Single and Multiple Images [56.652027072552606]
Pix2Vox++という,単一ビューと複数ビューの3Dオブジェクト再構成のための新しいフレームワークを提案する。
良く設計されたエンコーダデコーダを用いて、各入力画像から粗い3Dボリュームを生成する。
次に、マルチスケールコンテキスト対応融合モジュールを導入し、全ての粗い3Dボリュームから異なる部分の高品質な再構成を適応的に選択し、融合した3Dボリュームを得る。
論文 参考訳(メタデータ) (2020-06-22T13:48:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。