論文の概要: Just Say Better or Worse: A Human-AI Collaborative Framework for Medical Image Segmentation Without Manual Annotations
- arxiv url: http://arxiv.org/abs/2507.05815v1
- Date: Tue, 08 Jul 2025 09:36:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:37.835556
- Title: Just Say Better or Worse: A Human-AI Collaborative Framework for Medical Image Segmentation Without Manual Annotations
- Title(参考訳): 手作業によるアノテーションのない医療画像セグメンテーションのための人間とAIのコラボレーションフレームワーク
- Authors: Yizhe Zhang,
- Abstract要約: 本稿では,医療画像セグメンテーションのための新しいHuman-AI協調フレームワークを提案する。
明示的な手動ピクセルレベルのラベリングを不要にすることで、アノテーションの負担を大幅に軽減する。
中心となるイノベーションは、人間の専門家が最小限の直感的なフィードバックを提供する、好みの学習パラダイムにあります。
- 参考スコア(独自算出の注目度): 7.792765420137269
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Manual annotation of medical images is a labor-intensive and time-consuming process, posing a significant bottleneck in the development and deployment of robust medical imaging AI systems. This paper introduces a novel Human-AI collaborative framework for medical image segmentation that substantially reduces the annotation burden by eliminating the need for explicit manual pixel-level labeling. The core innovation lies in a preference learning paradigm, where human experts provide minimal, intuitive feedback -- simply indicating whether an AI-generated segmentation is better or worse than a previous version. The framework comprises four key components: (1) an adaptable foundation model (FM) for feature extraction, (2) label propagation based on feature similarity, (3) a clicking agent that learns from human better-or-worse feedback to decide where to click and with which label, and (4) a multi-round segmentation learning procedure that trains a state-of-the-art segmentation network using pseudo-labels generated by the clicking agent and FM-based label propagation. Experiments on three public datasets demonstrate that the proposed approach achieves competitive segmentation performance using only binary preference feedback, without requiring experts to directly manually annotate the images.
- Abstract(参考訳): 医療画像のマニュアルアノテーションは、労働集約的で時間を要するプロセスであり、堅牢な医療画像AIシステムの開発と展開において、大きなボトルネックとなっている。
本稿では,医用画像セグメンテーションのための新しいHuman-AI協調フレームワークを提案する。
人間の専門家が最小限の直感的なフィードバックを提供し、AI生成セグメンテーションが以前のバージョンより優れているか悪いかを示す。
フレームワークは、(1)特徴抽出のための適応的基礎モデル(FM)、(2)特徴類似性に基づくラベル伝搬、(3)人間のより良質なフィードバックから学習してどのラベルをクリックすべきかを判断するクリックエージェント、(4)クリックエージェントとFMベースのラベル伝搬によって生成された擬似ラベルを用いて最先端のセグメンテーションネットワークを訓練するマルチラウンドセグメンテーション学習手順を含む。
3つの公開データセットの実験により、提案手法は、専門家が手動で画像に注釈を付けることなく、2進選好フィードバックのみを用いて競合セグメンテーション性能を達成することを示した。
関連論文リスト
- Few Shot Medical Image Segmentation with Cross Attention Transformer [30.54965157877615]
我々は、CAT-Netと呼ばれる、数ショットの医用画像セグメンテーションのための新しいフレームワークを提案する。
提案するネットワークは,サポート画像とクエリ画像の相関関係を抽出し,有用なフォアグラウンド情報のみに限定する。
提案手法を,Abd-CT,Abd-MRI,Card-MRIの3つの公開データセットで検証した。
論文 参考訳(メタデータ) (2023-03-24T09:10:14Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - Pseudo-label Guided Cross-video Pixel Contrast for Robotic Surgical
Scene Segmentation with Limited Annotations [72.15956198507281]
シーンセグメンテーションを促進するために,新しい擬似ラベル付きクロスビデオコントラスト学習法であるPGV-CLを提案する。
本研究では,ロボット外科手術データセットEndoVis18と白内障手術データセットCaDISについて検討した。
論文 参考訳(メタデータ) (2022-07-20T05:42:19Z) - One-shot Weakly-Supervised Segmentation in Medical Images [12.184590794655517]
ワンショットおよび弱教師付き設定による3次元医用画像セグメンテーションの革新的枠組みを提案する。
注釈付きボリュームからラベルなしの3D画像へスクリブルを投影するために,伝搬再構成ネットワークを提案する。
デュアルレベルの特徴記述モジュールは、解剖学的およびピクセルレベルの特徴に基づいて、スクリブルを洗練させるように設計されている。
論文 参考訳(メタデータ) (2021-11-21T09:14:13Z) - Self-Ensembling Contrastive Learning for Semi-Supervised Medical Image
Segmentation [6.889911520730388]
限られたラベルを持つ医用画像セグメンテーションにおける半教師あり学習の性能向上を目指す。
我々は、ラベルのない画像に対照的な損失を与えることによって、特徴レベルで潜在表現を直接学習する。
我々はMRIとCTのセグメンテーションデータセットの実験を行い、提案手法が最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2021-05-27T03:27:58Z) - Semantic Segmentation with Generative Models: Semi-Supervised Learning
and Strong Out-of-Domain Generalization [112.68171734288237]
本論文では,画像とラベルの再生モデルを用いた識別画素レベルのタスクのための新しいフレームワークを提案する。
我々は,共同画像ラベルの分布を捕捉し,未ラベル画像の大規模な集合を用いて効率的に訓練する生成的対向ネットワークを学習する。
ドメイン内性能をいくつかのベースラインと比較し,ドメイン外一般化を極端に示す最初の例である。
論文 参考訳(メタデータ) (2021-04-12T21:41:25Z) - Cascaded Robust Learning at Imperfect Labels for Chest X-ray
Segmentation [61.09321488002978]
不完全アノテーションを用いた胸部X線分割のための新しいカスケードロバスト学習フレームワークを提案する。
モデルは3つの独立したネットワークから成り,ピアネットワークから有用な情報を効果的に学習できる。
提案手法は,従来の手法と比較して,セグメント化タスクの精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2021-04-05T15:50:16Z) - Collaborative Unsupervised Domain Adaptation for Medical Image Diagnosis [102.40869566439514]
我々は、Unsupervised Domain Adaptation (UDA)を通じて、対象タスクにおける学習を支援するために、関連ドメインからの豊富なラベル付きデータを活用しようとしている。
クリーンなラベル付きデータやサンプルを仮定するほとんどのUDAメソッドが等しく転送可能であるのとは異なり、協調的教師なしドメイン適応アルゴリズムを革新的に提案する。
提案手法の一般化性能を理論的に解析し,医用画像と一般画像の両方で実験的に評価する。
論文 参考訳(メタデータ) (2020-07-05T11:49:17Z) - ATSO: Asynchronous Teacher-Student Optimization for Semi-Supervised
Medical Image Segmentation [99.90263375737362]
教師-学生最適化の非同期版であるATSOを提案する。
ATSOはラベルのないデータを2つのサブセットに分割し、モデルの微調整に1つのサブセットを交互に使用し、他のサブセットのラベルを更新する。
医用画像のセグメンテーションデータセットを2つ評価し,様々な半教師付き環境において優れた性能を示す。
論文 参考訳(メタデータ) (2020-06-24T04:05:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。