論文の概要: U-Net-and-a-half: Convolutional network for biomedical image
segmentation using multiple expert-driven annotations
- arxiv url: http://arxiv.org/abs/2108.04658v1
- Date: Tue, 10 Aug 2021 13:08:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-11 17:56:36.837183
- Title: U-Net-and-a-half: Convolutional network for biomedical image
segmentation using multiple expert-driven annotations
- Title(参考訳): U-Net-and-a-half:複数の専門家駆動アノテーションを用いたバイオメディカルイメージセグメンテーションのための畳み込みネットワーク
- Authors: Yichi Zhang, Jesper Kers, Clarissa A. Cassol, Joris J. Roelofs, Najia
Idrees, Alik Farber, Samir Haroon, Kevin P. Daly, Suvranu Ganguli, Vipul C.
Chitalia, Vijaya B. Kolachalama
- Abstract要約: バイオメディカルセグメンテーションのためのディープラーニングシステムは、専門家主導の手動注釈付きデータセットへのアクセスを必要とすることが多い。
ここでは、複数の専門家が同じ画像集合上で実行するアノテーションから同時に学習できる、U-Net-and-a-halfとして定義されるディープニューラルネットワークを提案する。
- 参考スコア(独自算出の注目度): 6.682450741319984
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Development of deep learning systems for biomedical segmentation often
requires access to expert-driven, manually annotated datasets. If more than a
single expert is involved in the annotation of the same images, then the
inter-expert agreement is not necessarily perfect, and no single expert
annotation can precisely capture the so-called ground truth of the regions of
interest on all images. Also, it is not trivial to generate a reference
estimate using annotations from multiple experts. Here we present a deep neural
network, defined as U-Net-and-a-half, which can simultaneously learn from
annotations performed by multiple experts on the same set of images.
U-Net-and-a-half contains a convolutional encoder to generate features from the
input images, multiple decoders that allow simultaneous learning from image
masks obtained from annotations that were independently generated by multiple
experts, and a shared low-dimensional feature space. To demonstrate the
applicability of our framework, we used two distinct datasets from digital
pathology and radiology, respectively. Specifically, we trained two separate
models using pathologist-driven annotations of glomeruli on whole slide images
of human kidney biopsies (10 patients), and radiologist-driven annotations of
lumen cross-sections of human arteriovenous fistulae obtained from
intravascular ultrasound images (10 patients), respectively. The models based
on U-Net-and-a-half exceeded the performance of the traditional U-Net models
trained on single expert annotations alone, thus expanding the scope of
multitask learning in the context of biomedical image segmentation.
- Abstract(参考訳): 生物医学的なセグメンテーションのためのディープラーニングシステムの開発には、しばしば専門家主導の手動アノテーション付きデータセットへのアクセスが必要である。
同じ画像のアノテーションに1人以上の専門家が関わっている場合、専門家間の合意は必ずしも完璧ではなく、すべての画像に対するいわゆる関心領域の真実を正確に捉えることはできない。
また、複数の専門家のアノテーションを使って参照推定を生成するのも簡単ではない。
ここでは、複数の専門家が同じ画像集合上で実行するアノテーションから同時に学習できる、U-Net-and-a-halfとして定義されるディープニューラルネットワークを提案する。
U-Net-and-a-halfには、入力画像から特徴を生成する畳み込みエンコーダ、複数の専門家が独立して生成したアノテーションから得られる画像マスクから同時に学習する複数のデコーダ、共有低次元特徴空間が含まれる。
この枠組みの適用性を示すために,デジタル病理学と放射線学の2つの異なるデータセットを用いた。
具体的には,ヒト腎生検(10例)のスライス画像全体に対する糸球体造影法と,血管内超音波画像(10例)から得られたヒト動静脈ジストロフィーの腔断面のX線学的アノテーションを用いて2つの異なるモデルを訓練した。
U-Net-and-a-halfに基づくモデルは、単一の専門家アノテーションだけで訓練された従来のU-Netモデルの性能を上回り、バイオメディカルイメージセグメンテーションの文脈でマルチタスク学習の範囲を広げた。
関連論文リスト
- Multi-rater Prompting for Ambiguous Medical Image Segmentation [12.452584289825849]
医用画像が複数の専門家(レーダ)によって独立して注釈付けされる場合、マルチラターアノテーションは一般的に発生する。
本稿では,これら2つの課題を完全に解決するためのマルチラッタープロンプトベースのアプローチを提案する。
論文 参考訳(メタデータ) (2024-04-11T09:13:50Z) - Diversified and Personalized Multi-rater Medical Image Segmentation [43.47142636000329]
本稿ではD-Personaという2段階のフレームワークを提案する。
ステージIでは、複数のアノテーションを使って確率的U-Netモデルをトレーニングし、予測の多様性を改善するために制約付き損失を制限した。
ステージIIでは、複数の注意に基づく投影ヘッドを設計し、対応する専門家のプロンプトを共有潜在空間から適応的にクエリし、パーソナライズされた医用画像セグメンテーションを実行する。
論文 参考訳(メタデータ) (2024-03-20T09:00:19Z) - Inter-Rater Uncertainty Quantification in Medical Image Segmentation via
Rater-Specific Bayesian Neural Networks [7.642026462053574]
医用画像セグメンテーションにおけるレータ間不確実性を推定するための新しいベイズニューラルネットワークアーキテクチャを提案する。
まず,不確実性推定に適したワンエンコーダ・マルチデコーダアーキテクチャを提案する。
次に,新しいアーキテクチャのベイズモデルを提案する。
論文 参考訳(メタデータ) (2023-06-28T20:52:51Z) - Annotator Consensus Prediction for Medical Image Segmentation with
Diffusion Models [70.3497683558609]
医療画像のセグメンテーションにおける大きな課題は、複数の専門家が提供したアノテーションにおける、サーバ間の大きなばらつきである。
拡散モデルを用いたマルチエキスパート予測のための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-15T10:01:05Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - Voice-assisted Image Labelling for Endoscopic Ultrasound Classification
using Neural Networks [48.732863591145964]
本稿では,臨床医が提示した生音声からのEUS画像にラベルを付けるマルチモーダル畳み込みニューラルネットワークアーキテクチャを提案する。
その結果,5つのラベルを持つデータセットにおいて,画像レベルでの予測精度は76%であった。
論文 参考訳(メタデータ) (2021-10-12T21:22:24Z) - Hierarchical Semantic Segmentation using Psychometric Learning [17.417302703539367]
我々は,心理測定テストに基づいて,専門家からセグメンテーションアノテーションを収集する手法を開発した。
本手法は, 心理測定試験, アクティブクエリ選択, クエリ強化, ディープメトリック学習モデルから構成される。
本稿では, 合成画像, 空中画像, 組織像について評価し, 提案手法の有用性を示す。
論文 参考訳(メタデータ) (2021-07-07T13:38:33Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Towards Unsupervised Learning for Instrument Segmentation in Robotic
Surgery with Cycle-Consistent Adversarial Networks [54.00217496410142]
本稿では、入力された内視鏡画像と対応するアノテーションとのマッピングを学習することを目的として、未ペア画像から画像への変換を提案する。
当社のアプローチでは,高価なアノテーションを取得することなく,イメージセグメンテーションモデルをトレーニングすることが可能です。
提案手法をEndovis 2017チャレンジデータセットで検証し,教師付きセグメンテーション手法と競合することを示す。
論文 参考訳(メタデータ) (2020-07-09T01:39:39Z) - Unifying Specialist Image Embedding into Universal Image Embedding [84.0039266370785]
画像の様々な領域に適用可能な普遍的な深層埋め込みモデルを持つことが望ましい。
本稿では,複数の専門家の知識を普遍的な埋め込みに融合させてこの問題を解決することを提案する。
論文 参考訳(メタデータ) (2020-03-08T02:51:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。