論文の概要: Glance and Focus Reinforcement for Pan-cancer Screening
- arxiv url: http://arxiv.org/abs/2601.19103v1
- Date: Tue, 27 Jan 2026 02:10:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.129227
- Title: Glance and Focus Reinforcement for Pan-cancer Screening
- Title(参考訳): ガンスとフォーカス強化による膵臓スクリーニング
- Authors: Linshan Wu, Jiaxin Zhuang, Hao Chen,
- Abstract要約: 汎癌スクリーニングのためのGlance and Focus強化学習フレームワークであるGF-Screenを紹介する。
GF-ScreenはGlanceモデルを用いて疾患領域を局在させ、Focusモデルで病変を正確に分類する。
GF-Screenの有効性を示したのは、9種類の病変を対象とする16種と7種の外部データセットの実験である。
- 参考スコア(独自算出の注目度): 11.799593078664685
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pan-cancer screening in large-scale CT scans remains challenging for existing AI methods, primarily due to the difficulty of localizing diverse types of tiny lesions in large CT volumes. The extreme foreground-background imbalance significantly hinders models from focusing on diseased regions, while redundant focus on healthy regions not only decreases the efficiency but also increases false positives. Inspired by radiologists' glance and focus diagnostic strategy, we introduce GF-Screen, a Glance and Focus reinforcement learning framework for pan-cancer screening. GF-Screen employs a Glance model to localize the diseased regions and a Focus model to precisely segment the lesions, where segmentation results of the Focus model are leveraged to reward the Glance model via Reinforcement Learning (RL). Specifically, the Glance model crops a group of sub-volumes from the entire CT volume and learns to select the sub-volumes with lesions for the Focus model to segment. Given that the selecting operation is non-differentiable for segmentation training, we propose to employ the segmentation results to reward the Glance model. To optimize the Glance model, we introduce a novel group relative learning paradigm, which employs group relative comparison to prioritize high-advantage predictions and discard low-advantage predictions within sub-volume groups, not only improving efficiency but also reducing false positives. In this way, for the first time, we effectively extend cutting-edge RL techniques to tackle the specific challenges in pan-cancer screening. Extensive experiments on 16 internal and 7 external datasets across 9 lesion types demonstrated the effectiveness of GF-Screen. Notably, GF-Screen leads the public validation leaderboard of MICCAI FLARE25 pan-cancer challenge, surpassing the FLARE24 champion solution by a large margin (+25.6% DSC and +28.2% NSD).
- Abstract(参考訳): 大規模なCTスキャンにおけるパンがんスクリーニングは、主に大規模なCTボリュームの様々な種類の微小病変の局所化が困難であるため、既存のAI手法では依然として困難である。
極端に前景の不均衡は、モデルが疾患のある地域に集中することを妨げる一方で、健康な地域への冗長な集中は効率を低下させるだけでなく、偽陽性を増大させる。
放射線科医の視線と診断戦略に触発されて,汎がんスクリーニングのためのGlance and Focus強化学習フレームワークであるGF-Screenを紹介した。
GF-Screenは、Glanceモデルを用いて疾患領域をローカライズし、Focusモデルで病変を正確に分類し、Focusモデルのセグメンテーション結果を活用して強化学習(RL)を介してGlanceモデルに報いる。
具体的には、GlanceモデルはCTボリューム全体からサブボリュームのグループを抽出し、Focusモデルをセグメント化するための病変のあるサブボリュームを選択することを学習する。
選択操作がセグメンテーショントレーニングでは微分できないことを考慮し、グランスモデルに報酬を与えるためにセグメンテーション結果を採用することを提案する。
Glanceモデルを最適化するために、グループ比較を用いたグループ相対学習パラダイムを導入し、高いアドバンテージ予測を優先順位付けし、サブボリュームグループ内での低アドバンテージ予測を破棄し、効率を向上するだけでなく、偽陽性を減らす。
このようにして、パンカンサースクリーニングにおける特定の課題に対処するために、最先端のRL技術を効果的に拡張する。
GF-Screenの有効性を示した。
特に、GF-Screenは、MICCAI FLARE25パンカンサーチャレンジの公開検証リーダーボードをリードし、FLARE24チャンピオンソリューションを大きなマージン(+25.6% DSCと+28.2% NSD)で上回った。
関連論文リスト
- CLARiTy: A Vision Transformer for Multi-Label Classification and Weakly-Supervised Localization of Chest X-ray Pathologies [5.833805519002777]
CLARiTyは、胸椎病変の多ラベル分類と弱教師付き局所化のための視覚変換器に基づくモデルである。
NIH ChestX-ray14データセットの画像レベルラベルに基づいてトレーニングされている。
14の病理にまたがる競争的分類性能と8の病理上での最先端の教師付きローカライゼーション性能を実現している。
論文 参考訳(メタデータ) (2025-12-18T16:04:55Z) - CriDiff: Criss-cross Injection Diffusion Framework via Generative Pre-train for Prostate Segmentation [60.61972883059688]
CridiffはCrisscross Injection Strategy(CIS)とGenerative Pre-train(GP)アプローチによる2段階の機能注入フレームワークである。
CISでは,複数レベルのエッジ特徴と非エッジ特徴を効果的に学習するために,並列コンディショナーを2つ提案した。
GPアプローチは、追加パラメータを追加することなく、画像特徴と拡散モデルとの矛盾を緩和する。
論文 参考訳(メタデータ) (2024-06-20T10:46:50Z) - Ambiguous Medical Image Segmentation using Diffusion Models [60.378180265885945]
我々は,グループ洞察の分布を学習することで,複数の可算出力を生成する単一拡散モデルに基づくアプローチを提案する。
提案モデルでは,拡散の固有のサンプリングプロセスを利用してセグメンテーションマスクの分布を生成する。
その結果,提案手法は既存の最先端曖昧なセグメンテーションネットワークよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-04-10T17:58:22Z) - Rethinking Semi-Supervised Medical Image Segmentation: A
Variance-Reduction Perspective [51.70661197256033]
医用画像セグメンテーションのための階層化グループ理論を用いた半教師付きコントラスト学習フレームワークARCOを提案する。
まず、分散還元推定の概念を用いてARCOを構築することを提案し、特定の分散還元技術が画素/ボクセルレベルのセグメンテーションタスクにおいて特に有用であることを示す。
5つの2D/3D医療データセットと3つのセマンティックセグメンテーションデータセットのラベル設定が異なる8つのベンチマークで、我々のアプローチを実験的に検証する。
論文 参考訳(メタデータ) (2023-02-03T13:50:25Z) - Does image resolution impact chest X-ray based fine-grained
Tuberculosis-consistent lesion segmentation? [3.3086274755158325]
ディープラーニングモデルは、計算資源の不足を理由に、画像解像度の低下を訓練していると伝えられている。
本研究では,インセプションV3ベースのUNetモデルを様々な画像/マスク解像度を用いて学習することで得られる性能向上について検討した。
論文 参考訳(メタデータ) (2023-01-10T15:34:39Z) - Weakly-Supervised Universal Lesion Segmentation with Regional Level Set
Loss [16.80758525711538]
高分解能ネットワーク(HRNet)に基づく新しい弱監督ユニバーサル病変分割法を提案する。
AHRNetはデコーダ、デュアルアテンション、スケールアテンション機構を含む高度な高解像度のディープイメージ機能を提供する。
本手法は,公開大規模deeplesionデータセットとホールドアウトテストセットにおいて,最高の性能を実現する。
論文 参考訳(メタデータ) (2021-05-03T23:33:37Z) - Towards Unbiased COVID-19 Lesion Localisation and Segmentation via
Weakly Supervised Learning [66.36706284671291]
本研究では,画像レベルラベルのみに監視されたデータ駆動型フレームワークを提案する。
このフレームワークは、生成する対向ネットワークと病変特異的デコーダの助けを借りて、原画像から潜在的な病変を明示的に分離することができる。
論文 参考訳(メタデータ) (2021-03-01T06:05:49Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - Inf-Net: Automatic COVID-19 Lung Infection Segmentation from CT Images [152.34988415258988]
CT画像からの肺感染症の自動検出は、新型コロナウイルスに対処するための従来の医療戦略を強化する大きな可能性を秘めている。
CTスライスから感染領域を分割することは、高い感染特性の変化、感染と正常な組織の間の低強度のコントラストなど、いくつかの課題に直面している。
これらの課題に対処するため, 胸部CTスライスから感染部位を自動的に同定する, 新型のCOVID-19 Deep Lung infection Network (Inf-Net) が提案されている。
論文 参考訳(メタデータ) (2020-04-22T07:30:56Z) - Weakly-Supervised Lesion Segmentation on CT Scans using Co-Segmentation [18.58056402884405]
CTスキャンにおける病変分割は,病変・腫瘍の進展を正確に観察するための重要なステップである。
現在の慣行は、固形腫瘍の反応評価基準と呼ばれる不正確な代用に依存している。
本稿では,畳み込みニューラルネットワークを用いた弱教師付き病変分割法を提案する。
論文 参考訳(メタデータ) (2020-01-23T15:15:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。