論文の概要: Automatic nodule identification and differentiation in ultrasound videos
to facilitate per-nodule examination
- arxiv url: http://arxiv.org/abs/2310.06339v1
- Date: Tue, 10 Oct 2023 06:20:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 01:58:25.392044
- Title: Automatic nodule identification and differentiation in ultrasound videos
to facilitate per-nodule examination
- Title(参考訳): 超音波検査における結節の自動識別と識別
- Authors: Siyuan Jiang, Yan Ding, Yuling Wang, Lei Xu, Wenli Dai, Wanru Chang,
Jianfeng Zhang, Jie Yu, Jianqiao Zhou, Chunquan Zhang, Ping Liang, Dexing
Kong
- Abstract要約: ソノグラフィーは通常、結節の特徴と周囲の構造を調べることによって異なる結節を識別する。
我々は,入力ビデオクリップから特徴ベクトルを抽出できるディープラーニングモデルに基づく抽出器と,結節によって特徴ベクトルを自動的にグループ化するリアルタイムクラスタリングアルゴリズムの2つの部分からなる再同定システムを構築した。
- 参考スコア(独自算出の注目度): 12.75726717324889
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ultrasound is a vital diagnostic technique in health screening, with the
advantages of non-invasive, cost-effective, and radiation free, and therefore
is widely applied in the diagnosis of nodules. However, it relies heavily on
the expertise and clinical experience of the sonographer. In ultrasound images,
a single nodule might present heterogeneous appearances in different
cross-sectional views which makes it hard to perform per-nodule examination.
Sonographers usually discriminate different nodules by examining the nodule
features and the surrounding structures like gland and duct, which is
cumbersome and time-consuming. To address this problem, we collected hundreds
of breast ultrasound videos and built a nodule reidentification system that
consists of two parts: an extractor based on the deep learning model that can
extract feature vectors from the input video clips and a real-time clustering
algorithm that automatically groups feature vectors by nodules. The system
obtains satisfactory results and exhibits the capability to differentiate
ultrasound videos. As far as we know, it's the first attempt to apply
re-identification technique in the ultrasonic field.
- Abstract(参考訳): 超音波は、非侵襲性、費用効果、放射線のない健康診断において重要な診断技術であり、結節の診断に広く応用されている。
しかし、ソノグラフィーの専門知識と臨床経験に大きく依存している。
超音波画像では、1個の結節は異なる断面図で異種に見えるため、結節ごとの検査は困難である。
超音波撮影者は通常、結節の特徴と腺や管のような周囲の構造を調べることで異なる結節を識別する。
この問題を解決するために,数百本の乳房超音波映像を収集し,入力ビデオクリップから特徴ベクトルを抽出するディープラーニングモデルに基づく抽出器と,特徴ベクトルを結節毎に自動グループ化するリアルタイムクラスタリングアルゴリズムの2部からなる結節識別システムを構築した。
本システムは良好な結果を得て,超音波映像を識別する能力を示す。
我々の知る限りでは、超音波場に再同定技術を適用する最初の試みである。
関連論文リスト
- Privacy-Preserving Federated Foundation Model for Generalist Ultrasound Artificial Intelligence [83.02106623401885]
プライバシー保護型超音波基礎モデルであるUltraFedFMを提案する。
UltraFedFMは、9か国の16の分散医療機関にわたる連合学習を用いて、協調的に事前訓練されている。
疾患診断には0.927のレシーバ動作特性曲線、病変セグメント化には0.878のサイス類似係数を平均的に達成する。
論文 参考訳(メタデータ) (2024-11-25T13:40:11Z) - Uterine Ultrasound Image Captioning Using Deep Learning Techniques [0.0]
本稿では,深層学習を用いた医用画像キャプションについて検討し,特に子宮内超音波画像に焦点を当てた。
我々の研究は、タイムリーで正確な診断を行う医療専門家を支援することを目的としており、最終的には患者ケアの改善に寄与する。
論文 参考訳(メタデータ) (2024-11-21T11:41:42Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - Breast Ultrasound Report Generation using LangChain [58.07183284468881]
本稿では,Large Language Models (LLM) を用いたLangChainによる複数の画像解析ツールを胸部報告プロセスに統合することを提案する。
本手法は,超音波画像から関連する特徴を正確に抽出し,臨床的文脈で解釈し,包括的で標準化された報告を生成する。
論文 参考訳(メタデータ) (2023-12-05T00:28:26Z) - AiAReSeg: Catheter Detection and Segmentation in Interventional
Ultrasound using Transformers [75.20925220246689]
血管内手術は、電離放射線を用いてカテーテルと血管を可視化するFluoroscopyの黄金標準を用いて行われる。
本研究では、最先端機械学習トランスフォーマアーキテクチャを応用して、軸干渉超音波画像シーケンス中のカテーテルを検出し、セグメント化する手法を提案する。
論文 参考訳(メタデータ) (2023-09-25T19:34:12Z) - Breast Lesion Diagnosis Using Static Images and Dynamic Video [12.71602984461284]
放射線技師の診断過程を模倣するマルチモーダル乳腺腫瘍診断モデルを提案する。
本研究は,897枚の超音波画像とビデオからなる乳房超音波データセットを用いて検証した。
論文 参考訳(メタデータ) (2023-08-19T11:09:58Z) - Key-frame Guided Network for Thyroid Nodule Recognition using Ultrasound
Videos [13.765306481109988]
本稿では,超音波ビデオとキーフレームの探索による甲状腺結節の自動認識手法を提案する。
まず,各超音波ビデオに典型的な結節を持つ臨床用キーフレームを自動的に識別する検出局所化フレームワークを提案する。
局所化キーフレームに基づいて,甲状腺認識のためのキーフレームガイド付きビデオ分類モデルを構築した。
論文 参考訳(メタデータ) (2022-06-27T14:03:26Z) - Factored Attention and Embedding for Unstructured-view Topic-related
Ultrasound Report Generation [70.7778938191405]
本研究では,非構造的トピック関連超音波レポート生成のための新しい因子的注意・埋め込みモデル(FAE-Gen)を提案する。
提案したFAE-Genは主に2つのモジュール、すなわちビュー誘導因子の注意とトピック指向因子の埋め込みから構成されており、異なるビューで均質および不均一な形態的特徴を捉えている。
論文 参考訳(メタデータ) (2022-03-12T15:24:03Z) - Learning Ultrasound Scanning Skills from Human Demonstrations [6.971573270058377]
人間の実演から超音波スキャン技術を取得するための学習ベースのフレームワークを提案する。
モデルのパラメータは、熟練したソノグラフィーのデモンストレーションから収集したデータを用いて学習される。
提案手法のロバスト性は,ソノグラフィーによる実データを用いて検証した。
論文 参考訳(メタデータ) (2021-11-09T12:29:25Z) - Pediatric Otoscopy Video Screening with Shift Contrastive Anomaly
Detection [4.922640055654283]
本稿では、まず、ビデオシーケンスから耳ドラムのパッチを検出して抽出することにより、有効なフレームを識別する2段階の手法を提案する。
第2に、光学ビデオシーケンスを正常または異常としてフラグ付けるために、提案したシフトコントラスト異常検出を実行する。
本手法は患者レベルで88.0%のAUROCを達成し,25名の臨床医の平均値を上回った。
論文 参考訳(メタデータ) (2021-10-25T20:39:28Z) - Voice-assisted Image Labelling for Endoscopic Ultrasound Classification
using Neural Networks [48.732863591145964]
本稿では,臨床医が提示した生音声からのEUS画像にラベルを付けるマルチモーダル畳み込みニューラルネットワークアーキテクチャを提案する。
その結果,5つのラベルを持つデータセットにおいて,画像レベルでの予測精度は76%であった。
論文 参考訳(メタデータ) (2021-10-12T21:22:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。