論文の概要: Deep-Learning Approach for Tissue Classification using Acoustic Waves during Ablation with an Er:YAG Laser (Updated)
- arxiv url: http://arxiv.org/abs/2406.14570v2
- Date: Mon, 24 Jun 2024 09:25:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-25 23:44:36.386707
- Title: Deep-Learning Approach for Tissue Classification using Acoustic Waves during Ablation with an Er:YAG Laser (Updated)
- Title(参考訳): Er:YAGレーザーアブレーション時の音波を用いた組織分類の深層学習手法(続報)
- Authors: Carlo Seppi, Philippe C. Cattin,
- Abstract要約: レーザー手術において、周囲の組織への損傷を防ぐため、信頼性の高いフィードバックシステムが不可欠である。
レーザーアブレーション時に発生する音波を組織分類法を提案する。
- 参考スコア(独自算出の注目度): 0.7892577704654171
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Today's mechanical tools for bone cutting (osteotomy) cause mechanical trauma that prolongs the healing process. Medical device manufacturers aim to minimize this trauma, with minimally invasive surgery using laser cutting as one innovation. This method ablates tissue using laser light instead of mechanical tools, reducing post-surgery healing time. A reliable feedback system is crucial during laser surgery to prevent damage to surrounding tissues. We propose a tissue classification method analyzing acoustic waves generated during laser ablation, demonstrating its applicability in an ex-vivo experiment. The ablation process with a microsecond pulsed Er:YAG laser produces acoustic waves, acquired with an air-coupled transducer. These waves were used to classify five porcine tissue types: hard bone, soft bone, muscle, fat, and skin. For automated tissue classification, we compared five Neural Network (NN) approaches: a one-dimensional Convolutional Neural Network (CNN) with time-dependent input, a Fully-connected Neural Network (FcNN) with either the frequency spectrum or principal components of the frequency spectrum as input, and a combination of a CNN and an FcNN with time-dependent data and its frequency spectrum as input. Consecutive acoustic waves were used to improve classification accuracy. Grad-Cam identified the activation map of the frequencies, showing low frequencies as the most important for this task. Our results indicated that combining time-dependent data with its frequency spectrum achieved the highest classification accuracy (65.5%-75.5%). We also found that using the frequency spectrum alone was sufficient, with no additional benefit from applying Principal Components Analysis (PCA).
- Abstract(参考訳): 今日の骨切り(骨切り)の機械的道具は、治癒過程を延長する機械的外傷を引き起こす。
医療機器メーカーは、このトラウマを最小限に抑えることを目指している。
機械工具の代わりにレーザー光を用いて組織を出血させ、外科治療後の治癒時間を短縮する。
レーザー手術において、周囲の組織への損傷を防ぐため、信頼性の高いフィードバックシステムが不可欠である。
レーザーアブレーション時に発生する音波の組織分類法を提案し,その適用性を示した。
マイクロ秒パルスEr:YAGレーザーによるアブレーションプロセスは、空気結合型トランスデューサで得られた音響波を生成する。
これらの波は、硬い骨、柔らかい骨、筋肉、脂肪、皮膚の5種類のブタ組織を分類するために用いられた。
組織の自動分類では,1次元畳み込みニューラルネットワーク(CNN)と時間依存入力,周波数スペクトルの周波数スペクトルまたは主成分を入力とするフル接続ニューラルネットワーク(FcNN)と,時間依存データと周波数スペクトルを入力とするCNNとFcNNの組合せの5つのアプローチを比較した。
分類精度を向上させるために, 連続音波を用いた。
Grad-Camは、周波数の活性化マップを特定し、このタスクで最も重要な周波数を示す。
その結果、時間依存データと周波数スペクトルを組み合わせることで、最高分類精度(65.5%-75.5%)が得られた。
また,周波数スペクトルだけでは十分であり,主成分分析(PCA)の適用によるメリットは得られなかった。
関連論文リスト
- Classification of Heart Sounds Using Multi-Branch Deep Convolutional Network and LSTM-CNN [2.7699831151653305]
本稿では,診療所における低コストシステムを用いた心疾患の迅速かつ効率的な診断方法を提案する。
LSCNネットワークによる心臓音の総合的分類精度は96%以上である。
論文 参考訳(メタデータ) (2024-07-15T13:02:54Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - AiAReSeg: Catheter Detection and Segmentation in Interventional
Ultrasound using Transformers [75.20925220246689]
血管内手術は、電離放射線を用いてカテーテルと血管を可視化するFluoroscopyの黄金標準を用いて行われる。
本研究では、最先端機械学習トランスフォーマアーキテクチャを応用して、軸干渉超音波画像シーケンス中のカテーテルを検出し、セグメント化する手法を提案する。
論文 参考訳(メタデータ) (2023-09-25T19:34:12Z) - What do neural networks learn in image classification? A frequency
shortcut perspective [3.9858496473361402]
本研究では,ニューラルネットワーク(NN)における周波数ショートカットの学習力学を実験的に研究する。
NNは、分類のための単純な解を見つける傾向があり、訓練中に最初に何を学ぶかは、最も特徴的な周波数特性に依存する。
本稿では,クラスワイズ周波数特性を測定するための指標と,周波数ショートカットの同定方法を提案する。
論文 参考訳(メタデータ) (2023-07-19T08:34:25Z) - CNN-based fully automatic wrist cartilage volume quantification in MR
Image [55.41644538483948]
追加の注意層を持つU-net畳み込みニューラルネットワークは、最高の手首軟骨分割性能を提供する。
非MRI法を用いて軟骨体積測定の誤差を独立に評価すべきである。
論文 参考訳(メタデータ) (2022-06-22T14:19:06Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - Deep Metric Learning with Locality Sensitive Angular Loss for
Self-Correcting Source Separation of Neural Spiking Signals [77.34726150561087]
本稿では, 深層学習に基づく手法を提案し, 自動掃除とロバスト分離フィルタの必要性に対処する。
本手法は, ソース分離した高密度表面筋電図記録に基づいて, 人工的に劣化したラベルセットを用いて検証する。
このアプローチにより、ニューラルネットワークは、信号のラベル付けの不完全な方法を使用して、神経生理学的時系列を正確に復号することができる。
論文 参考訳(メタデータ) (2021-10-13T21:51:56Z) - FREA-Unet: Frequency-aware U-net for Modality Transfer [9.084926957557842]
MRIデータから合成PET画像を生成するための新しい周波数認識型注意Uネットを提案する。
Unetは低周波層や高周波層における特徴写像の注意点を計算し、それをモデルがより重要な領域に集中するのに役立てます。
論文 参考訳(メタデータ) (2020-12-31T01:58:44Z) - Focal Frequency Loss for Image Reconstruction and Synthesis [125.7135706352493]
周波数領域の狭さが画像再構成と合成品質をさらに改善できることを示す。
本稿では,合成が難しい周波数成分に適応的に焦点を合わせることのできる,新しい焦点周波数損失を提案する。
論文 参考訳(メタデータ) (2020-12-23T17:32:04Z) - A Spiking Neural Network (SNN) for detecting High Frequency Oscillations
(HFOs) in the intraoperative ECoG [1.8464222520424338]
てんかん原性組織によって生じる高周波発振(HFOs)は、切除マージンを調整するために用いられる。
本稿では,ニューロモルフィックハードウェア実装に適した自動HFO検出のためのスパイクニューラルネットワーク(SNN)を提案する。
論文 参考訳(メタデータ) (2020-11-17T17:24:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。