論文の概要: Realistic Endoscopic Image Generation Method Using Virtual-to-real
Image-domain Translation
- arxiv url: http://arxiv.org/abs/2201.04918v1
- Date: Thu, 13 Jan 2022 12:18:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-14 20:31:42.667208
- Title: Realistic Endoscopic Image Generation Method Using Virtual-to-real
Image-domain Translation
- Title(参考訳): virtual-to-real image-domain translation を用いた鏡視下画像生成法
- Authors: Masahiro Oda, Kiyohito Tanaka, Hirotsugu Takabatake, Masaki Mori,
Hiroshi Natori, Kensaku Mori
- Abstract要約: 内視鏡シミュレーションシステムのための現実的な画像生成手法を提案する。
患者のCTボリュームからボリュームレンダリング法を用いて仮想内視鏡画像を生成する。
仮想領域変換技術を用いて,仮想内視鏡画像の現実性を向上させる。
- 参考スコア(独自算出の注目度): 1.1580916951856253
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper proposes a realistic image generation method for visualization in
endoscopic simulation systems. Endoscopic diagnosis and treatment are performed
in many hospitals. To reduce complications related to endoscope insertions,
endoscopic simulation systems are used for training or rehearsal of endoscope
insertions. However, current simulation systems generate non-realistic virtual
endoscopic images. To improve the value of the simulation systems, improvement
of reality of their generated images is necessary. We propose a realistic image
generation method for endoscopic simulation systems. Virtual endoscopic images
are generated by using a volume rendering method from a CT volume of a patient.
We improve the reality of the virtual endoscopic images using a virtual-to-real
image-domain translation technique. The image-domain translator is implemented
as a fully convolutional network (FCN). We train the FCN by minimizing a cycle
consistency loss function. The FCN is trained using unpaired virtual and real
endoscopic images. To obtain high quality image-domain translation results, we
perform an image cleansing to the real endoscopic image set. We tested to use
the shallow U-Net, U-Net, deep U-Net, and U-Net having residual units as the
image-domain translator. The deep U-Net and U-Net having residual units
generated quite realistic images.
- Abstract(参考訳): 本稿では,内視鏡シミュレーションシステムにおける可視化のための現実的な画像生成手法を提案する。
多くの病院で内視鏡的診断と治療が行われている。
内視鏡挿入に関する合併症を軽減するため、内視鏡挿入の訓練やリハーサルに内視鏡シミュレーションシステムを用いる。
しかし、現在のシミュレーションシステムは非現実的な仮想内視鏡画像を生成する。
シミュレーションシステムの価値を高めるためには,生成画像の現実性の向上が必要である。
内視鏡シミュレーションシステムのための現実的な画像生成手法を提案する。
患者のCTボリュームからボリュームレンダリング法を用いて仮想内視鏡画像を生成する。
仮想領域変換技術を用いて,仮想内視鏡画像の現実性を向上させる。
画像領域変換器は完全畳み込みネットワーク(fcn)として実装されている。
サイクル整合損失関数を最小化してFCNを訓練する。
FCNは仮想および実際の内視鏡画像を用いて訓練される。
高品質な画像領域翻訳結果を得るため,実際の内視鏡画像集合に対して画像クリーニングを行う。
画像領域のトランスレータとしては, 浅いU-Net, U-Net, 深いU-Net, U-Netが残存する。
残留ユニットを持つ深いU-NetとU-Netは非常にリアルな画像を生成する。
関連論文リスト
- SurgicaL-CD: Generating Surgical Images via Unpaired Image Translation with Latent Consistency Diffusion Models [1.6189876649941652]
現実的な手術画像を生成するために, 連続拡散法であるemphSurgicaL-CDを導入する。
以上の結果から,本手法はGANや拡散に基づく手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-08-19T09:19:25Z) - MeshBrush: Painting the Anatomical Mesh with Neural Stylization for Endoscopy [0.8437187555622164]
スタイルトランスファーは、医療内視鏡におけるシミュレートとリアルのギャップを埋めるための有望なアプローチである。
術前スキャンによって合成内視鏡ビデオをレンダリングすると、構造的に正確なシミュレーションが生成される。
CycleGANはこれらのシミュレーションから現実的な内視鏡像を模倣することができるが、ビデオとビデオの合成には適さない。
時間的に一貫した映像を合成するニューラルネットワークスタイリング手法であるMeshBrushを提案する。
論文 参考訳(メタデータ) (2024-04-03T18:40:48Z) - EndoGSLAM: Real-Time Dense Reconstruction and Tracking in Endoscopic Surgeries using Gaussian Splatting [53.38166294158047]
EndoGSLAMは鏡視下手術の効率的なアプローチであり、合理化表現と微分ガウス化を統合している。
実験の結果,EndoGSLAMは従来型あるいは神経型SLAMアプローチよりも術中可用性と再建品質のトレードオフが良好であることがわかった。
論文 参考訳(メタデータ) (2024-03-22T11:27:43Z) - Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - Translating Simulation Images to X-ray Images via Multi-Scale Semantic
Matching [16.175115921436582]
本稿では,血管内シミュレータからX線画像へのシミュレーション画像の変換手法を提案する。
入力画像と生成画像が同じ位置意味関係を持つことを保証するために,自己ドメイン意味マッチングを適用した。
提案手法は, 現実的なX線画像を生成し, 最先端のアプローチを大きなマージンで上回っている。
論文 参考訳(メタデータ) (2023-04-16T04:49:46Z) - Shape Reconstruction from Thoracoscopic Images using Self-supervised
Virtual Learning [2.4493299476776778]
内視鏡画像からの臓器の術中形状再構成は,画像ガイド下手術には複雑だが必須である。
シミュレーション画像と実画像間の共通潜時変数を用いた画像変換を用いた形状再構成の仮想学習フレームワークを提案する。
本研究では,胸腔鏡画像から崩壊肺の形状復元を目標とし,仮想学習が実画像と模擬画像の類似性を改善することを確認した。
論文 参考訳(メタデータ) (2023-01-25T23:08:41Z) - Convolutional Neural Generative Coding: Scaling Predictive Coding to
Natural Images [79.07468367923619]
畳み込み型神経生成符号化(Conv-NGC)を開発した。
我々は、潜伏状態マップを段階的に洗練する柔軟な神経生物学的動機付けアルゴリズムを実装した。
本研究は,脳にインスパイアされたニューラル・システムによる再建と画像復調の課題に対する効果について検討する。
論文 参考訳(メタデータ) (2022-11-22T06:42:41Z) - A Shared Representation for Photorealistic Driving Simulators [83.5985178314263]
本稿では、識別器アーキテクチャを再考することにより、生成画像の品質を向上させることを提案する。
シーンセグメンテーションマップや人体ポーズといったセマンティックインプットによって画像が生成されるという問題に焦点が当てられている。
我々は,意味的セグメンテーション,コンテンツ再構成,および粗い粒度の逆解析を行うのに十分な情報をエンコードする,共有潜在表現を学習することを目指している。
論文 参考訳(メタデータ) (2021-12-09T18:59:21Z) - Adaptive Gradient Balancing for UndersampledMRI Reconstruction and
Image-to-Image Translation [60.663499381212425]
本研究では,新しい適応勾配バランス手法を併用したwasserstein生成逆ネットワークを用いて,画質の向上を図る。
MRIでは、他の技術よりも鮮明な画像を生成する高品質の再構築を維持しながら、アーティファクトを最小限に抑えます。
論文 参考訳(メタデータ) (2021-04-05T13:05:22Z) - Intrinsic Autoencoders for Joint Neural Rendering and Intrinsic Image
Decomposition [67.9464567157846]
合成3Dモデルからリアルな画像を生成するためのオートエンコーダを提案し,同時に実像を本質的な形状と外観特性に分解する。
実験により, レンダリングと分解の併用処理が有益であることが確認され, 画像から画像への翻訳の質的, 定量的なベースラインよりも優れた結果が得られた。
論文 参考訳(メタデータ) (2020-06-29T12:53:58Z) - A CNN-Based Blind Denoising Method for Endoscopic Images [19.373025463383385]
低画質の内視鏡画像が多数存在するのは,GI領域の照明や複雑な環境が限られているためである。
本稿では,内視鏡画像のための畳み込み型ブラインドデノイングネットワークを提案する。
論文 参考訳(メタデータ) (2020-03-16T03:11:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。