論文の概要: A Novel Implicit Neural Representation for Volume Data
- arxiv url: http://arxiv.org/abs/2403.08566v1
- Date: Wed, 13 Mar 2024 14:22:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 14:11:08.228237
- Title: A Novel Implicit Neural Representation for Volume Data
- Title(参考訳): ボリュームデータのための新しい暗黙的ニューラル表現法
- Authors: Armin Sheibanifard and Hongchuan Yu
- Abstract要約: 本稿では,提案アーキテクチャを用いてボリュームデータを圧縮する新しい暗黙的ニューラル表現を提案する。
我々のアーキテクチャは、トレーニング時間を効果的に削減し、最終的なレンダリング品質を維持しながら高い圧縮率を得ることができる。
- 参考スコア(独自算出の注目度): 0.5511540698163253
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The storage of medical images is one of the challenges in the medical imaging
field. There are variable works that use implicit neural representation (INR)
to compress volumetric medical images. However, there is room to improve the
compression rate for volumetric medical images. Most of the INR techniques need
a huge amount of GPU memory and a long training time for high-quality medical
volume rendering. In this paper, we present a novel implicit neural
representation to compress volume data using our proposed architecture, that
is, the Lanczos downsampling scheme, SIREN deep network, and SRDenseNet
high-resolution scheme. Our architecture can effectively reduce training time,
and gain a high compression rate while retaining the final rendering quality.
Moreover, it can save GPU memory in comparison with the existing works. The
experiments show that the quality of reconstructed images and training speed
using our architecture is higher than current works which use the SIREN only.
Besides, the GPU memory cost is evidently decreased
- Abstract(参考訳): 医用画像の保存は、医用画像分野における課題の1つである。
暗黙の神経表現(INR)を用いて、体積医学画像の圧縮を行う可変ワークがある。
しかし, 容積医用画像の圧縮率を改善する余地がある。
INRの技術の多くは、大量のGPUメモリと、高品質な医療ボリュームレンダリングのための長いトレーニング時間を必要としている。
本稿では,提案したアーキテクチャ,すなわちLaczos downsampling scheme,SIREN Deep Network,SRDenseNet High- resolution schemeを用いて,ボリュームデータを圧縮するための新しい暗黙的ニューラル表現を提案する。
我々のアーキテクチャは、トレーニング時間を効果的に削減し、最終的なレンダリング品質を維持しながら高い圧縮率を得ることができる。
さらに、既存の作業と比べてGPUメモリを節約できる。
実験の結果,SIRENのみを用いた現在の作業よりも,再構成画像の品質とアーキテクチャによるトレーニング速度が高いことがわかった。
さらにGPUメモリのコストは明らかに削減されている
関連論文リスト
- Streaming Neural Images [56.41827271721955]
Inlicit Neural Representations (INR) は信号表現の新しいパラダイムであり、画像圧縮にかなりの関心を集めている。
本研究では,INRの計算コスト,不安定な性能,堅牢性などの限界要因について検討する。
論文 参考訳(メタデータ) (2024-09-25T17:51:20Z) - FCNR: Fast Compressive Neural Representation of Visualization Images [6.648837287947374]
我々は,何万もの可視化画像に対する高速圧縮ニューラル表現であるFCNRを提案する。
FCNRはステレオ画像圧縮の最近の進歩に基づき、ステレオコンテキストモジュールとジョイントコンテキスト転送モジュールを同化して画像ペアを圧縮する。
論文 参考訳(メタデータ) (2024-07-23T10:34:02Z) - UniCompress: Enhancing Multi-Data Medical Image Compression with Knowledge Distillation [59.3877309501938]
Inlicit Neural Representation (INR) ネットワークは、その柔軟な圧縮比のため、顕著な汎用性を示している。
周波数領域情報を含むコードブックをINRネットワークへの事前入力として導入する。
これにより、INRの表現力が向上し、異なる画像ブロックに対して特異な条件付けが提供される。
論文 参考訳(メタデータ) (2024-05-27T05:52:13Z) - Rapid-INR: Storage Efficient CPU-free DNN Training Using Implicit Neural Representation [7.539498729072623]
Implicit Neural Representation (INR) は、複雑な形状や物体を、その形状や表面構造を明確に定義せずに表現するための革新的なアプローチである。
従来の研究では、画像圧縮のINRとしてニューラルネットワークを使用することの有効性が実証されており、JPEGのような従来の手法に匹敵する性能を示している。
本稿では、画像のエンコーディングと圧縮にINRを利用する新しいアプローチであるRapid-INRを紹介し、コンピュータビジョンタスクにおけるニューラルネットワークトレーニングを高速化する。
論文 参考訳(メタデータ) (2023-06-29T05:49:07Z) - CNeRV: Content-adaptive Neural Representation for Visual Data [54.99373641890767]
本稿では、自動エンコーダの一般化性と暗黙的表現の単純さとコンパクトさを組み合わせた、コンテンツ適応型埋め込み(CNeRV)によるニューラルビジュアル表現を提案する。
我々は、トレーニング中にスキップされたフレーム(見えない画像)をはるかに上回りながら、トレーニング中に見られるフレームの再構築作業において、最先端の暗黙のニューラル表現であるNERVのパフォーマンスを一致させる。
同じ遅延コード長と類似のモデルサイズで、CNeRVは、見えていない画像と見えない画像の両方の再構成においてオートエンコーダより優れている。
論文 参考訳(メタデータ) (2022-11-18T18:35:43Z) - Convolutional Neural Network (CNN) to reduce construction loss in JPEG
compression caused by Discrete Fourier Transform (DFT) [0.0]
畳み込みニューラルネットワーク(CNN)は他の多くのディープニューラルネットワークよりも注目されている。
本研究では,オートエンコーダを用いた効率的な画像圧縮手法を提案する。
論文 参考訳(メタデータ) (2022-08-26T12:46:16Z) - Implicit Neural Representations for Image Compression [103.78615661013623]
Inlicit Neural Representations (INRs) は、様々なデータ型の新規かつ効果的な表現として注目されている。
量子化、量子化を考慮した再学習、エントロピー符号化を含むINRに基づく最初の包括的圧縮パイプラインを提案する。
我々は、INRによるソース圧縮に対する我々のアプローチが、同様の以前の作業よりも大幅に優れていることに気付きました。
論文 参考訳(メタデータ) (2021-12-08T13:02:53Z) - Adaptive Gradient Balancing for UndersampledMRI Reconstruction and
Image-to-Image Translation [60.663499381212425]
本研究では,新しい適応勾配バランス手法を併用したwasserstein生成逆ネットワークを用いて,画質の向上を図る。
MRIでは、他の技術よりも鮮明な画像を生成する高品質の再構築を維持しながら、アーティファクトを最小限に抑えます。
論文 参考訳(メタデータ) (2021-04-05T13:05:22Z) - Neural Sparse Representation for Image Restoration [116.72107034624344]
スパース符号化に基づく画像復元モデルの堅牢性と効率に触発され,深部ネットワークにおけるニューロンの空間性について検討した。
本手法は,隠れたニューロンに対する空間的制約を構造的に強制する。
実験により、複数の画像復元タスクのためのディープニューラルネットワークではスパース表現が不可欠であることが示されている。
論文 参考訳(メタデータ) (2020-06-08T05:15:17Z) - Organ Segmentation From Full-size CT Images Using Memory-Efficient FCN [10.411340412305849]
医用画像分割作業では、サブボリュームトリミングが一般的な前処理となっている。
いくつかのメモリ最適化手法を組み込んだ,メモリ効率の良い完全畳み込みネットワーク(FCN)を提案する。
論文 参考訳(メタデータ) (2020-03-24T07:12:45Z) - Deep Residual Dense U-Net for Resolution Enhancement in Accelerated MRI
Acquisition [19.422926534305837]
本稿では,MRIの高速化による高画質画像の再構成を目的としたディープラーニング手法を提案する。
具体的には、畳み込みニューラルネットワーク(CNN)を用いて、エイリアス画像と元の画像の違いを学習する。
ダウンサンプリングされたk空間データの特異性を考慮すると、与えられたk空間データを効果的に活用する学習における損失関数に新しい用語を導入する。
論文 参考訳(メタデータ) (2020-01-13T19:01:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。