論文の概要: Semantic segmentation of multispectral photoacoustic images using deep
learning
- arxiv url: http://arxiv.org/abs/2105.09624v1
- Date: Thu, 20 May 2021 09:33:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-21 13:23:17.922132
- Title: Semantic segmentation of multispectral photoacoustic images using deep
learning
- Title(参考訳): 深層学習を用いた多スペクトル光音響画像のセマンティックセグメンテーション
- Authors: Janek Gr\"ohl, Melanie Schellenberg, Kris Dreher, Niklas Holzwarth,
Minu D. Tizabi, Alexander Seitel, Lena Maier-Hein
- Abstract要約: 光音響イメージングは医療に革命をもたらす可能性がある。
この技術の臨床的翻訳には、高次元取得したデータを臨床的に関連性があり解釈可能な情報に変換する必要がある。
本稿では,多スペクトル光音響画像のセマンティックセグメンテーションに対する深層学習に基づくアプローチを提案する。
- 参考スコア(独自算出の注目度): 53.65837038435433
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Photoacoustic imaging has the potential to revolutionise healthcare due to
the valuable information on tissue physiology that is contained in
multispectral photoacoustic measurements. Clinical translation of the
technology requires conversion of the high-dimensional acquired data into
clinically relevant and interpretable information. In this work, we present a
deep learning-based approach to semantic segmentation of multispectral
photoacoustic images to facilitate the interpretability of recorded images.
Manually annotated multispectral photoacoustic imaging data are used as gold
standard reference annotations and enable the training of a deep learning-based
segmentation algorithm in a supervised manner. Based on a validation study with
experimentally acquired data of healthy human volunteers, we show that
automatic tissue segmentation can be used to create powerful analyses and
visualisations of multispectral photoacoustic images. Due to the intuitive
representation of high-dimensional information, such a processing algorithm
could be a valuable means to facilitate the clinical translation of
photoacoustic imaging.
- Abstract(参考訳): 光音響イメージングは、多スペクトル光音響測定に含まれる組織生理学の貴重な情報により、医療に革命をもたらす可能性がある。
この技術の臨床的翻訳には、高次元取得データを臨床的に関連性があり解釈可能な情報に変換する必要がある。
本研究では,マルチスペクトル光音響画像のセマンティックセグメンテーションに対する深層学習に基づくアプローチを提案する。
ゴールド基準アノテーションとして手書き注釈付きマルチスペクトル光音響画像データを使用し、教師付き方法で深層学習に基づくセグメンテーションアルゴリズムのトレーニングを可能にする。
健常人ボランティアのデータを実験的に取得した検証研究に基づいて,多スペクトル光音響画像の強力な解析と可視化を行うために,自動組織セグメンテーションが有効であることを示す。
高次元情報の直感的な表現のため、このような処理アルゴリズムは、光音響イメージングの臨床的翻訳を容易にする貴重な手段となり得る。
関連論文リスト
- ISImed: A Framework for Self-Supervised Learning using Intrinsic Spatial Information in Medical Images [0.0]
本稿では,自己監督学習(SSL)を用いて医用画像の解釈可能な表現を学習するために空間情報を利用することを実証する。
我々は、物理的領域における位置をキャプチャ可能な潜在表現を生成する自己教師対象を確立する。
提案手法は,データの基盤構造を捉える表現を効率的に学習し,下流の分類タスクに転送することができることを示す。
論文 参考訳(メタデータ) (2024-10-22T12:21:39Z) - Autoregressive Sequence Modeling for 3D Medical Image Representation [48.706230961589924]
本稿では, 自己回帰シーケンス事前学習フレームワークを用いて, 3次元医用画像表現を学習するための先駆的手法を提案する。
我々は,空間的,コントラスト的,意味的相関に基づく様々な3次元医用画像にアプローチし,トークンシーケンス内の相互接続された視覚トークンとして扱う。
論文 参考訳(メタデータ) (2024-09-13T10:19:10Z) - MLIP: Enhancing Medical Visual Representation with Divergence Encoder
and Knowledge-guided Contrastive Learning [48.97640824497327]
本稿では、画像テキストのコントラスト学習を通じて、言語情報を視覚領域に統合するための案内信号として、ドメイン固有の医療知識を活用する新しいフレームワークを提案する。
我々のモデルには、設計した分散エンコーダによるグローバルコントラスト学習、局所トークン・知識・パッチアライメントコントラスト学習、知識誘導型カテゴリレベルのコントラスト学習、エキスパートナレッジによるコントラスト学習が含まれる。
特に、MLIPは、限られた注釈付きデータであっても最先端の手法を超越し、医療表現学習の進歩におけるマルチモーダル事前学習の可能性を強調している。
論文 参考訳(メタデータ) (2024-02-03T05:48:50Z) - Radiology Report Generation Using Transformers Conditioned with
Non-imaging Data [55.17268696112258]
本稿では,胸部X線画像と関連する患者の人口統計情報を統合したマルチモーダルトランスフォーマーネットワークを提案する。
提案ネットワークは、畳み込みニューラルネットワークを用いて、CXRから視覚的特徴を抽出し、その視覚的特徴と患者の人口統計情報のセマンティックテキスト埋め込みを組み合わせたトランスフォーマーベースのエンコーダデコーダネットワークである。
論文 参考訳(メタデータ) (2023-11-18T14:52:26Z) - LOTUS: Learning to Optimize Task-based US representations [39.81131738128329]
超音波画像における臓器の解剖学的セグメンテーションは多くの臨床応用に不可欠である。
既存のディープニューラルネットワークは、臨床的に許容できるパフォーマンスを達成するために、トレーニングのために大量のラベル付きデータを必要とする。
本稿では,タスクベース超音速画像表現を最適化する学習手法を提案する。
論文 参考訳(メタデータ) (2023-07-29T16:29:39Z) - Text-guided Foundation Model Adaptation for Pathological Image
Classification [40.45252665455015]
本稿では、画像とテキストの埋め込み(CITE)を結合して、病理画像分類を強化することを提案する。
CITEは、幅広いバイオメディカルテキストで事前訓練された言語モデルから得られたテキスト洞察を注入し、病理画像理解に基礎モデルを適用する。
論文 参考訳(メタデータ) (2023-07-27T14:44:56Z) - SYNTA: A novel approach for deep learning-based image analysis in muscle
histopathology using photo-realistic synthetic data [2.1616289178832666]
我々は,合成,フォトリアリスティック,高度に複雑なバイオメディカルイメージをトレーニングデータとして生成するための新しいアプローチとして,Synta(synthetic data)を紹介した。
手動のアノテーションを必要とせずに、以前に見つからなかった実世界のデータに対して、堅牢で専門家レベルのセグメンテーションタスクを実行することが可能であることを実証した。
論文 参考訳(メタデータ) (2022-07-29T12:50:32Z) - Voice-assisted Image Labelling for Endoscopic Ultrasound Classification
using Neural Networks [48.732863591145964]
本稿では,臨床医が提示した生音声からのEUS画像にラベルを付けるマルチモーダル畳み込みニューラルネットワークアーキテクチャを提案する。
その結果,5つのラベルを持つデータセットにおいて,画像レベルでの予測精度は76%であった。
論文 参考訳(メタデータ) (2021-10-12T21:22:24Z) - Pathological Retinal Region Segmentation From OCT Images Using Geometric
Relation Based Augmentation [84.7571086566595]
本稿では,幾何学と形状の内在的関係を共同で符号化することで,従来のGANベースの医用画像合成法よりも優れた手法を提案する。
提案手法は,取得手順の異なる画像を有する公開RETOUCHデータセット上で,最先端のセグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2020-03-31T11:50:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。