論文の概要: Using Multi-Instance Learning to Identify Unique Polyps in Colon Capsule Endoscopy Images
- arxiv url: http://arxiv.org/abs/2601.14771v1
- Date: Wed, 21 Jan 2026 08:50:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 21:27:50.295373
- Title: Using Multi-Instance Learning to Identify Unique Polyps in Colon Capsule Endoscopy Images
- Title(参考訳): 大腸内視鏡画像における多症例学習を用いた特異なポリープの同定
- Authors: Puneet Sharma, Kristian Dalsbø Hindberg, Eibe Frank, Benedicte Schelde-Olesen, Ulrik Deding,
- Abstract要約: 本稿では、この問題をマルチインスタンス学習(MIL)タスクとして定式化し、クエリポリプ画像を画像のターゲットバッグと比較し、特異性を決定する。
我々は,分散刺激型マルチヘッドアテンション(VEMA)や距離ベースアテンション(DBA)などのアテンション機構を組み込んだマルチインスタンス検証(MIV)フレームワークを用いて,意味のある表現を抽出するモデルの能力を高める。
- 参考スコア(独自算出の注目度): 1.3825641968010818
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Identifying unique polyps in colon capsule endoscopy (CCE) images is a critical yet challenging task for medical personnel due to the large volume of images, the cognitive load it creates for clinicians, and the ambiguity in labeling specific frames. This paper formulates this problem as a multi-instance learning (MIL) task, where a query polyp image is compared with a target bag of images to determine uniqueness. We employ a multi-instance verification (MIV) framework that incorporates attention mechanisms, such as variance-excited multi-head attention (VEMA) and distance-based attention (DBA), to enhance the model's ability to extract meaningful representations. Additionally, we investigate the impact of self-supervised learning using SimCLR to generate robust embeddings. Experimental results on a dataset of 1912 polyps from 754 patients demonstrate that attention mechanisms significantly improve performance, with DBA L1 achieving the highest test accuracy of 86.26\% and a test AUC of 0.928 using a ConvNeXt backbone with SimCLR pretraining. This study underscores the potential of MIL and self-supervised learning in advancing automated analysis of Colon Capsule Endoscopy images, with implications for broader medical imaging applications.
- Abstract(参考訳): 大腸内視鏡(CCE)画像における特異なポリープの同定は、大量の画像、臨床医の認知負荷、特定のフレームのラベル付けにおける曖昧さなど、医療従事者にとって重要な課題である。
本稿では、この問題をマルチインスタンス学習(MIL)タスクとして定式化し、クエリポリプ画像を画像のターゲットバッグと比較し、特異性を決定する。
我々は,分散刺激型マルチヘッドアテンション(VEMA)や距離ベースアテンション(DBA)などのアテンション機構を組み込んだマルチインスタンス検証(MIV)フレームワークを用いて,意味のある表現を抽出するモデルの能力を高める。
さらに,SimCLRを用いた自己教師型学習が,ロバストな埋め込み生成に与える影響について検討する。
DBA L1は86.26\%、AUCは0.928であり、ConvNeXtのバックボーンとSimCLRのプレトレーニングを併用したテストAUCは0.928である。
本研究は, 大腸内視鏡画像の自動解析におけるMILと自己教師型学習の可能性を明らかにし, より広範な医用画像への応用に寄与する。
関連論文リスト
- Enhanced Anomaly Detection for Capsule Endoscopy Using Ensemble Learning Strategies [0.8824955686704116]
本研究は,ビデオカプセル内膜における異常検出タスクの課題に対処するためのアンサンブル戦略を導入する。
本稿では、異常検出フィールドから引き出された各種損失関数を用いて、各ネットワークをトレーニングする。
我々は、Kvasir-Capsuleで76.86%のAUCスコア、Galarデータセットで76.98%のAUCスコアを達成した。
論文 参考訳(メタデータ) (2025-04-08T13:39:39Z) - A foundation model for generalizable disease diagnosis in chest X-ray images [40.9095393430871]
CXRBaseは,非ラベリングなCXR画像から多目的表現を学習するための基礎モデルである。
CXRBaseは1.04百万の未ラベルのCXRイメージのデータセットでトレーニングされている。
ラベル付きデータで微調整され、疾患検出の性能を高める。
論文 参考訳(メタデータ) (2024-10-11T14:41:27Z) - Learning Through Guidance: Knowledge Distillation for Endoscopic Image
Classification [40.366659911178964]
内視鏡は消化管(GI)の根底にある異常を同定する上で重要な役割を担っている。
ディープラーニング、特にCNN(Convolution Neural Networks)は、従来の機能エンジニアリングを使わずに自動機能学習を実行するように設計されている。
KDに基づく3つの学習フレームワーク、応答ベース、特徴ベース、関係ベースメカニズムについて検討し、関係ベース学習を支援するために、新しい多面的注意型特徴融合機構を導入する。
論文 参考訳(メタデータ) (2023-08-17T02:02:11Z) - Longitudinal Multimodal Transformer Integrating Imaging and Latent
Clinical Signatures From Routine EHRs for Pulmonary Nodule Classification [4.002181247287472]
単発性肺結節(SPN)分類におけるERHからの経時的臨床所見とリピート画像を統合するためのトランスフォーマーベースのマルチモーダル戦略を提案する。
臨床症状の非観血的非観血的切り離しを行ない, 時間依存性の自己注意を利用して, 臨床症状の表現と胸部CTスキャンから共同学習を行った。
論文 参考訳(メタデータ) (2023-04-06T03:03:07Z) - SEMPAI: a Self-Enhancing Multi-Photon Artificial Intelligence for
prior-informed assessment of muscle function and pathology [48.54269377408277]
本稿では,仮説駆動型先行処理をデータ駆動型ディープラーニングアプローチに統合した,SEMPAI(Self-Enhancing Multi-Photon Artificial Intelligence)を紹介する。
SEMPAIは、小さなデータセットの予測を可能にするために、いくつかのタスクを共同で学習する。
SEMPAIは、少ないデータを含む7つの予測タスクのうち6つにおいて、最先端のバイオマーカーよりも優れています。
論文 参考訳(メタデータ) (2022-10-28T17:03:04Z) - Intelligent Masking: Deep Q-Learning for Context Encoding in Medical
Image Analysis [48.02011627390706]
我々は,対象地域を排除し,事前訓練の手順を改善する,新たな自己指導型アプローチを開発した。
予測モデルに対してエージェントを訓練することで、下流の分類タスクで抽出した意味的特徴を大幅に改善できることを示す。
論文 参考訳(メタデータ) (2022-03-25T19:05:06Z) - Multi-Modal Multi-Instance Learning for Retinal Disease Recognition [10.294738095942812]
我々は、特定の症例に対する複数の視覚障害を認識できるディープニューラルネットワークの構築を目指している。
データ取得と手動ラベリングは医療分野では非常に高価であるため、ネットワークは比較的軽量でなければならない。
論文 参考訳(メタデータ) (2021-09-25T08:16:47Z) - Whole Slide Images based Cancer Survival Prediction using Attention
Guided Deep Multiple Instance Learning Networks [38.39901070720532]
Whole Slide Images(WSIs)から派生したキーパッチやクラスタに制限される現在の画像ベースサバイバルモデル
我々は,シムMI-FCNとアテンションベースMILプーリングの両方を導入して,Deep Attention Multiple Instance Survival Learning (DeepAttnMISL)を提案する。
提案手法を2つの大きな癌全スライド画像データセットで評価した結果,提案手法がより効果的で,大規模データセットに適していることが示唆された。
論文 参考訳(メタデータ) (2020-09-23T14:31:15Z) - Additive Angular Margin for Few Shot Learning to Classify Clinical
Endoscopy Images [42.74958357195011]
我々は、トレーニングデータが少なくなり、未知のデータセットからテストサンプルのラベルクラスを予測するために使用できる、数ショットの学習手法を提案する。
我々は,マルチセンター,マルチオーガナイズド,マルチモーダル内視鏡データの大規模コホートにおけるいくつかの確立された手法との比較を行った。
論文 参考訳(メタデータ) (2020-03-23T00:20:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。