論文の概要: CLTS-GAN: Color-Lighting-Texture-Specular Reflection Augmentation for
Colonoscopy
- arxiv url: http://arxiv.org/abs/2206.14951v1
- Date: Wed, 29 Jun 2022 23:51:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-01 15:21:30.200934
- Title: CLTS-GAN: Color-Lighting-Texture-Specular Reflection Augmentation for
Colonoscopy
- Title(参考訳): CLTS-GAN : 大腸内視鏡におけるカラーライト-テクスチュア-特異反射増強法
- Authors: Shawn Mathew, Saad Nadeem, Arie Kaufman
- Abstract要約: CLTS-GANは、OCビデオフレームのための色、照明、テクスチャ、および仕様反射を細かく制御する新しいディープラーニングモデルである。
トレーニングデータに大腸内視鏡特異的な拡張を加えることで,最先端のポリープ検出/分離法が向上することを示す。
- 参考スコア(独自算出の注目度): 5.298287413134345
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated analysis of optical colonoscopy (OC) video frames (to assist
endoscopists during OC) is challenging due to variations in color, lighting,
texture, and specular reflections. Previous methods either remove some of these
variations via preprocessing (making pipelines cumbersome) or add diverse
training data with annotations (but expensive and time-consuming). We present
CLTS-GAN, a new deep learning model that gives fine control over color,
lighting, texture, and specular reflection synthesis for OC video frames. We
show that adding these colonoscopy-specific augmentations to the training data
can improve state-of-the-art polyp detection/segmentation methods as well as
drive next generation of OC simulators for training medical students. The code
and pre-trained models for CLTS-GAN are available on Computational Endoscopy
Platform GitHub (https://github.com/nadeemlab/CEP).
- Abstract(参考訳): 光大腸内視鏡(oc)ビデオフレーム(oc)の自動分析は、色、照明、テクスチャ、鏡面反射のバリエーションにより困難である。
以前の方法では、事前処理(パイプラインの面倒な処理)や、アノテーションによるさまざまなトレーニングデータの追加(高価で時間がかかる)によって、これらのバリエーションを取り除いたりした。
ocビデオフレームの色,照明,テクスチャ,鏡面反射合成を詳細に制御する,新しいディープラーニングモデルであるclts-ganを提案する。
これらの大腸内視鏡特異的増強をトレーニングデータに加えることで,最先端のポリープ検出/セグメンテーション法を改善し,医学生の教育のための次世代のocシミュレータを推進できることが示されている。
CLTS-GANのコードと事前トレーニングされたモデルは、Computational Endoscopy Platform GitHub(https://github.com/nadeemlab/CEP)で入手できる。
関連論文リスト
- Leveraging Near-Field Lighting for Monocular Depth Estimation from Endoscopy Videos [12.497782583094281]
内視鏡ビデオにおける単眼深度推定は、補助手術やロボット手術により、臓器のより良いカバレッジと様々な健康問題の検出が可能になる。
主流の自然画像深度推定では有望な進歩があったが、内視鏡画像では技術が不十分であった。
本稿では, 内視鏡から放射される光を表面から反射する光学的手がかりを用いて, 単分子深度推定を改善する。
論文 参考訳(メタデータ) (2024-03-26T17:52:23Z) - Endora: Video Generation Models as Endoscopy Simulators [53.72175969751398]
本稿では,臨床内視鏡シーンをシミュレートする医用ビデオを作成するための革新的な手法であるモデルを紹介する。
また、ビデオ生成モデルを用いた内視鏡シミュレーションのための最初の公開ベンチマークを開拓した。
Endoraは、臨床内視鏡研究のための生成AIの展開において、注目すべきブレークスルーとなる。
論文 参考訳(メタデータ) (2024-03-17T00:51:59Z) - Improving Video Colorization by Test-Time Tuning [79.67548221384202]
テスト時間チューニングによる映像の着色性向上を目的とした,効果的な手法を提案する。
提案手法は,テスト中に追加のトレーニングサンプルを構築するための基準を利用して,PSNRにおいて平均13dBの性能向上を実現している。
論文 参考訳(メタデータ) (2023-06-25T05:36:40Z) - Parents and Children: Distinguishing Multimodal DeepFakes from Natural Images [60.34381768479834]
近年の拡散モデルの発展により、自然言語のテキストプロンプトから現実的なディープフェイクの生成が可能になった。
我々は、最先端拡散モデルにより生成されたディープフェイク検出に関する体系的研究を開拓した。
論文 参考訳(メタデータ) (2023-04-02T10:25:09Z) - Automatic Generation of Synthetic Colonoscopy Videos for Domain
Randomization [0.0]
そこで本研究では,大腸内視鏡画像の外観と解剖学的変化を考慮した模範的な合成法を提案する。
このソリューションは、現実世界の設定を模倣しながら、内大腸の識別的ドメインランダム化表現を学習することができる。
論文 参考訳(メタデータ) (2022-05-20T09:18:02Z) - GAN Inversion for Data Augmentation to Improve Colonoscopy Lesion
Classification [3.0100246737240877]
本研究では,GANインバージョンによって生成された合成大腸内視鏡像をトレーニングデータとして利用することにより,ディープラーニングモデルの病変分類性能を向上させることができることを示す。
このアプローチは、同じラベルを持つ一対のイメージを意味的にリッチで不整合な潜在空間に逆転させ、潜在表現を操作して、同じラベルを持つ新しい合成画像を生成する。
また,トレーニングデータセットにおける病変形状の多様性を高めるために,元のトレーニング画像間の補間により,現実的な合成病変画像を生成する。
論文 参考訳(メタデータ) (2022-05-04T23:15:45Z) - Colorectal Polyp Classification from White-light Colonoscopy Images via
Domain Alignment [57.419727894848485]
大腸内視鏡画像からの正確な診断を支援するためには,コンピュータ支援診断システムが必要である。
これまでのほとんどの研究では、Narrow-Band Imaging (NBI) や他の拡張画像を用いて、ポリプの分化モデルの開発を試みている。
正確な大腸ポリープ分類のための教師/学生アーキテクチャに基づく新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-08-05T09:31:46Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - Colonoscopy Polyp Detection: Domain Adaptation From Medical Report
Images to Real-time Videos [76.37907640271806]
大腸内視鏡画像と実時間映像の領域間ギャップに対処する画像-ビデオ結合型ポリープ検出ネットワーク(Ivy-Net)を提案する。
収集したデータセットの実験は、Ivy-Netが大腸内視鏡ビデオで最先端の結果を達成することを示した。
論文 参考訳(メタデータ) (2020-12-31T10:33:09Z) - Augmenting Colonoscopy using Extended and Directional CycleGAN for Lossy
Image Translation [5.861206243996454]
光学的大腸内視鏡(OC)と仮想大腸内視鏡(VC)の非対像画像変換のための深層学習フレームワークであるExtended and Directional CycleGANを提案する。
本稿では, ファントム, テクスチャVC, 実ポリプおよび正常大腸ビデオのスケール一貫性深度推定結果について報告する。
また,3次元VCモデルで導入したバンプからのペンダンクおよび平らなポリプ合成について検討した。
論文 参考訳(メタデータ) (2020-03-27T15:34:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。