論文の概要: CAF-YOLO: A Robust Framework for Multi-Scale Lesion Detection in Biomedical Imagery
- arxiv url: http://arxiv.org/abs/2408.01897v1
- Date: Sun, 4 Aug 2024 01:44:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-06 18:01:12.230108
- Title: CAF-YOLO: A Robust Framework for Multi-Scale Lesion Detection in Biomedical Imagery
- Title(参考訳): 生体画像におけるマルチスケール病変検出のためのロバストフレームワークCAF-YOLO
- Authors: Zilin Chen, Shengnan Lu,
- Abstract要約: CAF-YOLOは、畳み込みニューラルネットワーク(CNN)とトランスフォーマーの強みを活用する、医学的対象検出のための、巧妙で堅牢な方法である。
ACFMモジュールはグローバル機能とローカル機能の両方のモデリングを強化し、長期的な機能依存のキャプチャを可能にする。
MSNNは多様なスケールにまたがる特徴を抽出することで、マルチスケールの情報集約を改善する。
- 参考スコア(独自算出の注目度): 0.0682074616451595
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object detection is of paramount importance in biomedical image analysis, particularly for lesion identification. While current methodologies are proficient in identifying and pinpointing lesions, they often lack the precision needed to detect minute biomedical entities (e.g., abnormal cells, lung nodules smaller than 3 mm), which are critical in blood and lung pathology. To address this challenge, we propose CAF-YOLO, based on the YOLOv8 architecture, a nimble yet robust method for medical object detection that leverages the strengths of convolutional neural networks (CNNs) and transformers. To overcome the limitation of convolutional kernels, which have a constrained capacity to interact with distant information, we introduce an attention and convolution fusion module (ACFM). This module enhances the modeling of both global and local features, enabling the capture of long-term feature dependencies and spatial autocorrelation. Additionally, to improve the restricted single-scale feature aggregation inherent in feed-forward networks (FFN) within transformer architectures, we design a multi-scale neural network (MSNN). This network improves multi-scale information aggregation by extracting features across diverse scales. Experimental evaluations on widely used datasets, such as BCCD and LUNA16, validate the rationale and efficacy of CAF-YOLO. This methodology excels in detecting and precisely locating diverse and intricate micro-lesions within biomedical imagery. Our codes are available at https://github.com/xiaochen925/CAF-YOLO.
- Abstract(参考訳): 物体検出は生体画像解析において最重要であり、特に病変の同定に重要である。
現在の方法では病変の特定と特定に長けているが、血液や肺病理に重要な微小な生医学的実体(例:異常細胞、肺結節3mm未満)を検出するのに必要な精度が欠如していることが多い。
この課題に対処するために,畳み込みニューラルネットワーク(CNN)とトランスフォーマーの強みを活用した,医療オブジェクト検出のためのニブルで堅牢な手法であるYOLOv8アーキテクチャに基づくCAF-YOLOを提案する。
情報交換能力に制約のある畳み込みカーネルの制限を克服するため,注意・畳み込み融合モジュール(ACFM)を導入する。
このモジュールはグローバルな特徴と局所的な特徴の両方のモデリングを強化し、長期的特徴の依存関係と空間的自己相関をキャプチャする。
さらに、トランスアーキテクチャ内のフィードフォワードネットワーク(FFN)に固有の制限付き単一スケール特徴集約を改善するために、マルチスケールニューラルネットワーク(MSNN)を設計する。
このネットワークは,多様なスケールで特徴を抽出することで,マルチスケール情報収集を改善する。
BCCDやLUNA16のような広く使われているデータセットに対する実験的な評価は、CAF-YOLOの合理的性と有効性を検証する。
この手法は、生体画像中の多種多様な複雑なマイクロレジオンを検出し、正確に見つけ出すのに優れている。
私たちのコードはhttps://github.com/xiaochen925/CAF-YOLOで公開されています。
関連論文リスト
- Mew: Multiplexed Immunofluorescence Image Analysis through an Efficient Multiplex Network [84.88767228835928]
マルチプレックスネットワークのレンズを通してmIF画像を効率的に処理する新しいフレームワークであるMewを紹介する。
Mew は、幾何学情報のための Voronoi ネットワークと、セルワイドの均一性を捉えるセル型ネットワークという、2つの異なる層からなる多重ネットワークを革新的に構築する。
このフレームワークは、トレーニング中にグラフ全体を処理できるスケーラブルで効率的なグラフニューラルネットワーク(GNN)を備えている。
論文 参考訳(メタデータ) (2024-07-25T08:22:30Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - A novel framework employing deep multi-attention channels network for
the autonomous detection of metastasizing cells through fluorescence
microscopy [0.20999222360659603]
正常細胞と転移細胞を区別できる計算フレームワークを開発した。
この方法は、正常で転移する単細胞においてアクチンとビメンチンフィラメントの空間的構造を示す蛍光顕微鏡画像に依存する。
論文 参考訳(メタデータ) (2023-09-02T11:20:10Z) - Convolutional neural network based on sparse graph attention mechanism
for MRI super-resolution [0.34410212782758043]
深層学習技術を用いた医用画像超解像(SR)再構成は、病変解析を強化し、診断効率と精度を向上させるために医師を支援する。
既存のディープラーニングベースのSR手法は、これらのモデルの表現能力を本質的に制限する畳み込みニューラルネットワーク(CNN)に依存している。
画像特徴抽出に複数の畳み込み演算子特徴抽出モジュール(MCO)を用いるAネットワークを提案する。
論文 参考訳(メタデータ) (2023-05-29T06:14:22Z) - A Generic Shared Attention Mechanism for Various Backbone Neural Networks [53.36677373145012]
自己注意モジュール(SAM)は、異なる層にまたがる強い相関した注意マップを生成する。
Dense-and-Implicit Attention (DIA)はSAMをレイヤ間で共有し、長期間のメモリモジュールを使用する。
我々のシンプルで効果的なDIAは、様々なネットワークバックボーンを一貫して拡張できます。
論文 参考訳(メタデータ) (2022-10-27T13:24:08Z) - DLDNN: Deterministic Lateral Displacement Design Automation by Neural
Networks [1.8365768330479992]
本稿では、決定論的側方変位(DLD)問題に対処する高速多目的設計自動化プラットフォームについて検討する。
畳み込みニューラルネットワークと人工ニューラルネットワークを用いて、様々なDLD構成の速度場と臨界径を学習した。
開発ツールは12の臨界条件でテストされ、4%未満の誤差で確実に実行された。
論文 参考訳(メタデータ) (2022-08-30T14:38:17Z) - Medulloblastoma Tumor Classification using Deep Transfer Learning with
Multi-Scale EfficientNets [63.62764375279861]
本稿では,エンド・ツー・エンドのMB腫瘍分類を提案し,様々な入力サイズとネットワーク次元の一致した移動学習を提案する。
161ケースのデータセットを用いて、より大規模な入力解像度を持つ事前学習されたEfficientNetが、大幅な性能改善をもたらすことを実証した。
論文 参考訳(メタデータ) (2021-09-10T13:07:11Z) - Comparisons among different stochastic selection of activation layers
for convolutional neural networks for healthcare [77.99636165307996]
ニューラルネットワークのアンサンブルを用いて生体医用画像の分類を行う。
ReLU, leaky ReLU, Parametric ReLU, ELU, Adaptive Piecewice Linear Unit, S-Shaped ReLU, Swish, Mish, Mexican Linear Unit, Parametric Deformable Linear Unit, Soft Root Sign。
論文 参考訳(メタデータ) (2020-11-24T01:53:39Z) - Towards an Automatic Analysis of CHO-K1 Suspension Growth in
Microfluidic Single-cell Cultivation [63.94623495501023]
我々は、人間の力で抽象化されたニューラルネットワークをデータレベルで注入できる新しい機械学習アーキテクチャを提案する。
具体的には、自然データと合成データに基づいて生成モデルを同時に訓練し、細胞数などの対象変数を確実に推定できる共有表現を学習する。
論文 参考訳(メタデータ) (2020-10-20T08:36:51Z) - Multiscale Detection of Cancerous Tissue in High Resolution Slide Scans [0.0]
高分解能スライドスキャンにおけるマルチスケール腫瘍(キメラ細胞)検出アルゴリズムを提案する。
提案手法では,CNNの異なる層における有効受容場を改良し,幅広いスケールの物体を1つの前方通過で検出する。
論文 参考訳(メタデータ) (2020-10-01T18:56:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。