論文の概要: DGGAN: Degradation Guided Generative Adversarial Network for Real-time Endoscopic Video Enhancement
- arxiv url: http://arxiv.org/abs/2512.07253v1
- Date: Mon, 08 Dec 2025 07:49:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.768822
- Title: DGGAN: Degradation Guided Generative Adversarial Network for Real-time Endoscopic Video Enhancement
- Title(参考訳): DGGAN:リアルタイム内視鏡的映像強調のためのジェネレーティブ・アドバイザリー・ネットワークの劣化ガイド
- Authors: Handing Xu, Zhenguo Nie, Tairan Peng, Huimin Pan, Xin-Jun Liu,
- Abstract要約: 内視鏡的映像強調のための劣化認識フレームワークを提案する。
我々のフレームワークは、いくつかの最先端手法と比較して、性能と効率のバランスが優れている。
- 参考スコア(独自算出の注目度): 0.7707723852137395
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Endoscopic surgery relies on intraoperative video, making image quality a decisive factor for surgical safety and efficacy. Yet, endoscopic videos are often degraded by uneven illumination, tissue scattering, occlusions, and motion blur, which obscure critical anatomical details and complicate surgical manipulation. Although deep learning-based methods have shown promise in image enhancement, most existing approaches remain too computationally demanding for real-time surgical use. To address this challenge, we propose a degradation-aware framework for endoscopic video enhancement, which enables real-time, high-quality enhancement by propagating degradation representations across frames. In our framework, degradation representations are first extracted from images using contrastive learning. We then introduce a fusion mechanism that modulates image features with these representations to guide a single-frame enhancement model, which is trained with a cycle-consistency constraint between degraded and restored images to improve robustness and generalization. Experiments demonstrate that our framework achieves a superior balance between performance and efficiency compared with several state-of-the-art methods. These results highlight the effectiveness of degradation-aware modeling for real-time endoscopic video enhancement. Nevertheless, our method suggests that implicitly learning and propagating degradation representation offer a practical pathway for clinical application.
- Abstract(参考訳): 内視鏡的手術は術中ビデオに依存しており、画像の質が外科的安全性と有効性に決定的な要素となる。
しかし、内視鏡的ビデオは、しばしば不均一な照明、組織散乱、閉塞、運動のぼかしによって劣化し、解剖学的詳細を曖昧にし、手術を複雑にする。
深層学習に基づく手法は画像強調の可能性を示してきたが、既存のアプローチのほとんどはリアルタイムの外科的使用を計算的に要求しすぎている。
この課題に対処するために,フレーム間の劣化表現を伝播させることにより,リアルタイムで高品質な画質向上を実現する,内視鏡的映像強調のための劣化対応フレームワークを提案する。
本フレームワークでは,まずコントラスト学習を用いて画像から劣化表現を抽出する。
次に,これらの表現を用いて画像特徴を変調して単一フレーム拡張モデルを導出する融合機構を導入する。
実験により、我々のフレームワークは、いくつかの最先端手法と比較して、性能と効率のバランスが優れていることが示された。
これらの結果は,リアルタイム映像強調のための劣化認識モデリングの有効性を浮き彫りにした。
いずれにせよ, 暗黙的に学習し, 劣化表現を伝播させることは, 臨床応用に有効な道筋であることが示唆された。
関連論文リスト
- Benchmarking Laparoscopic Surgical Image Restoration and Beyond [54.28852320829451]
腹腔鏡下手術では、明瞭で高品質な視野が外科医の正確な判断に不可欠である。
持続的な視覚劣化、例えば、エネルギー装置によって発生する煙、熱勾配から光るレンズ、およびレンズ汚染は患者の安全に危険をもたらす。
本稿では,SurgCleanと呼ばれる腹腔鏡下環境を対象とするオープンソースの手術画像復元データセットについて紹介する。
論文 参考訳(メタデータ) (2025-05-25T14:17:56Z) - Pathology Image Compression with Pre-trained Autoencoders [52.208181380986524]
デジタル病理学における全スライド画像は、記憶、伝達、計算効率の面で大きな課題をもたらす。
JPEGのような標準的な圧縮手法はファイルサイズを小さくするが、下流のタスクに不可欠な微細な表現型の詳細を保存できない。
本研究では,遅延拡散モデル用に設計されたオートエンコーダ(AE)を,病理画像の効率的な学習圧縮フレームワークとして再利用する。
論文 参考訳(メタデータ) (2025-03-14T17:01:17Z) - Efficient Degradation-aware Any Image Restoration [83.92870105933679]
我々は,低ランク体制下での学習者(DaLe)を用いた効率的なオールインワン画像復元システムである textitDaAIR を提案する。
モデルキャパシティを入力劣化に動的に割り当てることにより、総合学習と特定の学習を統合した効率的な復調器を実現する。
論文 参考訳(メタデータ) (2024-05-24T11:53:27Z) - FLex: Joint Pose and Dynamic Radiance Fields Optimization for Stereo Endoscopic Videos [79.50191812646125]
内視鏡的シーンの再構築は、外科手術後の分析から教育訓練まで、様々な医療応用にとって重要な要素である。
変形組織の非常にダイナミックな環境下での移動内視鏡の挑戦的なセットアップに着目する。
複数重重なり合う4次元ニューラルラジアンスフィールド(NeRF)への暗黙的なシーン分離と、再構成とカメラのスクラッチからのポーズを協調的に最適化するプログレッシブ最適化手法を提案する。
これにより、使いやすさが向上し、5000フレーム以上の手術ビデオの処理に間に合うように復元能力を拡張できる。
論文 参考訳(メタデータ) (2024-03-18T19:13:02Z) - Learning How To Robustly Estimate Camera Pose in Endoscopic Videos [5.073761189475753]
カメラポーズ推定における2つの幾何学的損失を最小限に抑えるために,奥行きと光学的流れを推定するステレオ内視鏡の解を提案する。
最も重要なことは、入力画像の内容に応じてコントリビューションのバランスをとるために、2つの学習された画素単位の重みマッピングを導入することである。
パブリックなSCAREDデータセットに対する我々のアプローチを検証するとともに、新たなインビボデータセットであるStereoMISを導入しています。
論文 参考訳(メタデータ) (2023-04-17T07:05:01Z) - Bridging Synthetic and Real Images: a Transferable and Multiple
Consistency aided Fundus Image Enhancement Framework [61.74188977009786]
画像強調とドメイン適応を同時に行うために,エンドツーエンドの教師支援フレームワークを提案する。
また,教師ネットワークと学生ネットワークのバックボーンとして,マルチステージ型マルチアテンション・ガイド・エンハンスメント・ネットワーク(MAGE-Net)を提案する。
論文 参考訳(メタデータ) (2023-02-23T06:16:15Z) - OTRE: Where Optimal Transport Guided Unpaired Image-to-Image Translation
Meets Regularization by Enhancing [4.951748109810726]
正確な診断と自動解析のために、最適な網膜画像品質が義務付けられている。
そこで本研究では,低品質の網膜CFPを高画質のCFPにマッピングするための画像対画像変換手法を提案する。
統合されたフレームワークOTREを3つの公開網膜画像データセット上で検証した。
論文 参考訳(メタデータ) (2023-02-06T18:39:40Z) - Desmoking laparoscopy surgery images using an image-to-image translation
guided by an embedded dark channel [3.1706553206969916]
腹腔鏡下手術では、$CO$注入による煙と解離ツールにより、画像の視認性が著しく低下する可能性がある。
本稿では,煙効果を除去するための新しい計算手法を提案する。
提案手法は,暗黒チャネルを組込みガイドマスクとして用いる画像から画像への条件付き生成対向ネットワークに基づいている。
論文 参考訳(メタデータ) (2020-04-19T19:51:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。