論文の概要: YOLO-MED : Multi-Task Interaction Network for Biomedical Images
- arxiv url: http://arxiv.org/abs/2403.00245v1
- Date: Fri, 1 Mar 2024 03:20:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-05 18:25:32.551504
- Title: YOLO-MED : Multi-Task Interaction Network for Biomedical Images
- Title(参考訳): バイオメディカル画像のためのマルチタスクインタラクションネットワークYOLO-MED
- Authors: Suizhi Huang, Shalayiding Sirejiding, Yuxiang Lu, Yue Ding, Leheng
Liu, Hui Zhou, Hongtao Lu
- Abstract要約: YOLO-Medは、オブジェクト検出とセマンティックセグメンテーションを同時に行うことができる効率的なエンドツーエンドマルチタスクネットワークである。
Kvasir-segデータセットとプライベートバイオメディカルイメージデータセットで評価すると,精度と速度のバランスが期待できる結果が得られた。
- 参考スコア(独自算出の注目度): 18.535117490442953
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object detection and semantic segmentation are pivotal components in
biomedical image analysis. Current single-task networks exhibit promising
outcomes in both detection and segmentation tasks. Multi-task networks have
gained prominence due to their capability to simultaneously tackle segmentation
and detection tasks, while also accelerating the segmentation inference.
Nevertheless, recent multi-task networks confront distinct limitations such as
the difficulty in striking a balance between accuracy and inference speed.
Additionally, they often overlook the integration of cross-scale features,
which is especially important for biomedical image analysis. In this study, we
propose an efficient end-to-end multi-task network capable of concurrently
performing object detection and semantic segmentation called YOLO-Med. Our
model employs a backbone and a neck for multi-scale feature extraction,
complemented by the inclusion of two task-specific decoders. A cross-scale
task-interaction module is employed in order to facilitate information fusion
between various tasks. Our model exhibits promising results in balancing
accuracy and speed when evaluated on the Kvasir-seg dataset and a private
biomedical image dataset.
- Abstract(参考訳): オブジェクト検出とセマンティックセグメンテーションは、バイオメディカル画像解析において重要な要素である。
現在のシングルタスクネットワークは、検出タスクとセグメンテーションタスクの両方において有望な結果を示す。
マルチタスクネットワークは、セグメンテーションと検出タスクを同時に取り扱う能力と、セグメンテーション推論の高速化によって、注目を集めている。
しかし、近年のマルチタスクネットワークは、精度と推論速度のバランスを崩すことの難しさなど、明確な制限に直面している。
さらに、バイオメディカル画像解析において特に重要なクロススケール機能の統合を見落としていることが多い。
本研究では,オブジェクト検出と意味セマンティクスセグメンテーションを同時に行うことができる効率的なエンドツーエンドマルチタスクネットワークであるyolo-medを提案する。
本モデルは,2つのタスク固有デコーダを組み込んだマルチスケール特徴抽出にバックボーンとネックを用いる。
様々なタスク間の情報融合を容易にするために、クロススケールなタスク-インタラクションモジュールが使用される。
Kvasir-segデータセットとプライベートバイオメディカルイメージデータセットで評価すると,精度と速度のバランスが期待できる結果が得られた。
関連論文リスト
- A Multitask Deep Learning Model for Classification and Regression of Hyperspectral Images: Application to the large-scale dataset [44.94304541427113]
ハイパースペクトル画像上で複数の分類タスクと回帰タスクを同時に行うマルチタスク深層学習モデルを提案する。
我々は、TAIGAと呼ばれる大規模なハイパースペクトルデータセットに対するアプローチを検証した。
結果の総合的定性的および定量的分析により,提案手法が他の最先端手法よりも有意に優れていることを示す。
論文 参考訳(メタデータ) (2024-07-23T11:14:54Z) - FlexCare: Leveraging Cross-Task Synergy for Flexible Multimodal Healthcare Prediction [34.732561455987145]
我々は、不完全なマルチモーダル入力に柔軟に対応するために、textbfFlexCareという統合医療予測モデルを提案する。
タスクに依存しないマルチモーダル情報抽出モジュールを提示し、多様なモダリティ内およびモダリティ間パターンの非相関表現をキャプチャする。
MIMIC-IV/MIMIC-CXR/MIMIC-NOTEデータセットによる複数のタスクの実験結果から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-06-17T12:03:10Z) - Modality-agnostic Domain Generalizable Medical Image Segmentation by Multi-Frequency in Multi-Scale Attention [1.1155836879100416]
医用画像セグメンテーションのためのModality-Agnostic Domain Generalizable Network (MADGNet)を提案する。
MFMSAブロックは空間的特徴抽出の過程を洗練させる。
E-SDMは、深い監督を伴うマルチタスク学習における情報損失を軽減する。
論文 参考訳(メタデータ) (2024-05-10T07:34:36Z) - Self-Supervised Neuron Segmentation with Multi-Agent Reinforcement
Learning [53.00683059396803]
マスク画像モデル(MIM)は,マスク画像から元の情報を復元する簡便さと有効性から広く利用されている。
本稿では、強化学習(RL)を利用して最適な画像マスキング比とマスキング戦略を自動検索する決定に基づくMIMを提案する。
本手法は,ニューロン分節の課題において,代替自己監督法に対して有意な優位性を有する。
論文 参考訳(メタデータ) (2023-10-06T10:40:46Z) - Multi-interactive Feature Learning and a Full-time Multi-modality
Benchmark for Image Fusion and Segmentation [66.15246197473897]
多モード画像融合とセグメンテーションは、自律走行とロボット操作において重要な役割を果たす。
画像融合とtextbfSegmentation のための textbfMulti-textbfinteractive textbfFeature Learning アーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-08-04T01:03:58Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - Histogram of Oriented Gradients Meet Deep Learning: A Novel Multi-task
Deep Network for Medical Image Semantic Segmentation [18.066680957993494]
医用画像セグメンテーションのための深層マルチタスク学習法を提案する。
教師なしの方法で補助作業の擬似ラベルを生成する。
本手法は, 対数部法と比較して連続的に性能を向上する。
論文 参考訳(メタデータ) (2022-04-02T23:50:29Z) - HF-UNet: Learning Hierarchically Inter-Task Relevance in Multi-Task
U-Net for Accurate Prostate Segmentation [56.86396352441269]
我々は,CT画像における前立腺区分けの課題に取り組み,1)高速な局所化のための第1段階,2)正確に前立腺区分けを行う第2段階の2段階の2段階からなる2段階のネットワークを用いた。
前立腺のセグメンテーションを第2段階に正確に分割するために、前立腺のセグメンテーションを多タスク学習フレームワークに定式化し、前立腺のセグメンテーションをセグメンテーションするメインタスクと、前立腺の境界を規定する補助タスクを含む。
対照的に、従来のマルチタスクディープネットワークは、通常、すべてのタスクのパラメータ(つまり特徴表現)の大部分を共有しており、異なるタスクの特異性としてデータ適合性を制限している可能性がある。
論文 参考訳(メタデータ) (2020-05-21T02:53:52Z) - Boundary-aware Context Neural Network for Medical Image Segmentation [15.585851505721433]
医用画像のセグメンテーションは、さらなる臨床分析と疾患診断のための信頼性の高い基盤を提供することができる。
既存のCNNベースのほとんどの手法は、正確なオブジェクト境界のない不満足なセグメンテーションマスクを生成する。
本稿では,2次元医用画像分割のための境界認識コンテキストニューラルネットワーク(BA-Net)を定式化する。
論文 参考訳(メタデータ) (2020-05-03T02:35:49Z) - Robust Medical Instrument Segmentation Challenge 2019 [56.148440125599905]
腹腔鏡装置の術中追跡は、しばしばコンピュータとロボットによる介入の必要条件である。
本研究の課題は,30の手術症例から取得した10,040枚の注釈画像からなる外科的データセットに基づいていた。
結果は、初期仮説、すなわち、アルゴリズムの性能がドメインギャップの増大とともに低下することを確認する。
論文 参考訳(メタデータ) (2020-03-23T14:35:08Z) - Panoptic Feature Fusion Net: A Novel Instance Segmentation Paradigm for
Biomedical and Biological Images [91.41909587856104]
本稿では,本研究における意味的特徴とインスタンス的特徴を統一するPanoptic Feature Fusion Net(PFFNet)を提案する。
提案するPFFNetには,インスタンス予測を意味的特徴に組み込むための残注意特徴融合機構が組み込まれている。
様々なバイオメディカルおよび生物学的データセットにおいて、最先端のいくつかの手法を上回ります。
論文 参考訳(メタデータ) (2020-02-15T09:19:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。