論文の概要: Tackling domain generalization for out-of-distribution endoscopic imaging
- arxiv url: http://arxiv.org/abs/2410.14821v1
- Date: Fri, 18 Oct 2024 18:45:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:12:03.365593
- Title: Tackling domain generalization for out-of-distribution endoscopic imaging
- Title(参考訳): アウト・オブ・ディストリビューション型内視鏡画像のためのタグリング領域の一般化
- Authors: Mansoor Ali Teevno, Gilberto Ochoa-Ruiz, Sharib Ali,
- Abstract要約: 我々は、画像のスタイル情報とコンテンツ情報の両方を利用して、堅牢で一般化可能な特徴表現を保存する。
提案手法は, ベースラインであるDeepLabv3+よりも13.7%向上し, 最新のSOTA(State-of-the-art)手法よりも8%改善した。
- 参考スコア(独自算出の注目度): 1.6377635288143584
- License:
- Abstract: While recent advances in deep learning (DL) for surgical scene segmentation have yielded promising results on single-center and single-imaging modality data, these methods usually do not generalize well to unseen distributions or modalities. Even though human experts can identify visual appearances, DL methods often fail to do so when data samples do not follow a similar distribution. Current literature addressing domain gaps in modality changes has focused primarily on natural scene data. However, these methods cannot be directly applied to endoscopic data, as visual cues in such data are more limited compared to natural scenes. In this work, we exploit both style and content information in images by performing instance normalization and feature covariance mapping techniques to preserve robust and generalizable feature representations. Additionally, to avoid the risk of removing salient feature representations associated with objects of interest, we introduce a restitution module within the feature-learning ResNet backbone that retains useful task-relevant features. Our proposed method shows a 13.7% improvement over the baseline DeepLabv3+ and nearly an 8% improvement over recent state-of-the-art (SOTA) methods for the target (different modality) set of the EndoUDA polyp dataset. Similarly, our method achieved a 19% improvement over the baseline and 6% over the best-performing SOTA method on the EndoUDA Barrett's esophagus (BE) dataset.
- Abstract(参考訳): 近年の手術シーンセグメンテーションにおける深層学習 (DL) の進歩は, 単一中心および単一画像モダリティデータに対して有望な結果をもたらしたが, これらの手法は通常, 未知の分布やモダリティに対してうまく一般化しない。
人間の専門家は視覚的な外観を識別できるが、データサンプルが同様の分布に従わない場合、DLメソッドは失敗することが多い。
モダリティ変化における領域ギャップに対処する現在の文献は、主に自然のシーンデータに焦点を当てている。
しかし、これらの手法は自然のシーンに比べて視覚的手がかりが限られているため、内視鏡的データに直接適用することはできない。
本研究では、画像のスタイル情報とコンテンツ情報の両方を、インスタンス正規化と特徴共分散マッピング技術によって利用し、堅牢で一般化可能な特徴表現を保存する。
さらに、興味のあるオブジェクトに関連する有能な特徴表現を削除するリスクを回避するため、有用なタスク関連機能を保持する機能学習ResNetバックボーン内に、再構成モジュールを導入する。
提案手法は, ベースラインであるDeepLabv3+よりも13.7%向上し, 最新のSOTA(State-of-the-art)手法よりも8%改善した。
同様に,エンドウダ・バレットの食道 (BE) データセットを用いたSOTA法では, ベースラインよりも19%改善し, 6%改善した。
関連論文リスト
- Domain Generalization for Endoscopic Image Segmentation by Disentangling Style-Content Information and SuperPixel Consistency [1.4991956341367338]
本稿では,インスタンス正規化とインスタンス選択白化(ISW)を用いて,ドメインの一般化を改善する手法を提案する。
本研究では,EndoUDA BarrettのEsophagusとEndoUDA polypsの2つのデータセットに対するアプローチを評価し,その性能を3つの最先端(SOTA)手法と比較した。
論文 参考訳(メタデータ) (2024-09-19T04:10:04Z) - Self-Supervised Neuron Segmentation with Multi-Agent Reinforcement
Learning [53.00683059396803]
マスク画像モデル(MIM)は,マスク画像から元の情報を復元する簡便さと有効性から広く利用されている。
本稿では、強化学習(RL)を利用して最適な画像マスキング比とマスキング戦略を自動検索する決定に基づくMIMを提案する。
本手法は,ニューロン分節の課題において,代替自己監督法に対して有意な優位性を有する。
論文 参考訳(メタデータ) (2023-10-06T10:40:46Z) - ArSDM: Colonoscopy Images Synthesis with Adaptive Refinement Semantic
Diffusion Models [69.9178140563928]
大腸内視鏡検査は臨床診断や治療に不可欠である。
注釈付きデータの不足は、既存の手法の有効性と一般化を制限する。
本稿では, 下流作業に有用な大腸内視鏡画像を生成するために, 適応Refinement Semantic Diffusion Model (ArSDM)を提案する。
論文 参考訳(メタデータ) (2023-09-03T07:55:46Z) - TAAL: Test-time Augmentation for Active Learning in Medical Image
Segmentation [7.856339385917824]
本稿では,セグメンテーションのための半教師付きアクティブラーニング手法であるTAAL(Test-time Augmentation for Active Learning)を提案する。
以上の結果から,TAALは既存のベースライン法よりも,完全教師付きと半教師付きの両方で優れていることが示された。
論文 参考訳(メタデータ) (2023-01-16T22:19:41Z) - SUPRA: Superpixel Guided Loss for Improved Multi-modal Segmentation in
Endoscopy [1.1470070927586016]
ドメインシフトは医療画像コミュニティでよく知られた問題である。
本稿では,そのようなシナリオでDL手法が利用可能となるための領域一般化手法について検討する。
その結果,本手法では,ベースラインに比べて目標領域の20%近くの改善が得られた。
論文 参考訳(メタデータ) (2022-11-09T03:13:59Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - Invariance Learning in Deep Neural Networks with Differentiable Laplace
Approximations [76.82124752950148]
我々はデータ拡張を選択するための便利な勾配法を開発した。
我々はKronecker-factored Laplace近似を我々の目的とする限界確率に近似する。
論文 参考訳(メタデータ) (2022-02-22T02:51:11Z) - Cross-Domain Segmentation with Adversarial Loss and Covariate Shift for
Biomedical Imaging [2.1204495827342438]
本論文は,異なるモダリティから異なるパターンと共有パターンをカプセル化することにより,ドメイン間データから堅牢な表現を学習できる新しいモデルの実現を目的とする。
正常な臨床試験で得られたCTおよびMRI肝データに対する試験は、提案したモデルが他のすべてのベースラインを大きなマージンで上回っていることを示している。
論文 参考訳(メタデータ) (2020-06-08T07:35:55Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。