論文の概要: Intelligent Robotic Sonographer: Mutual Information-based Disentangled
Reward Learning from Few Demonstrations
- arxiv url: http://arxiv.org/abs/2307.03705v1
- Date: Fri, 7 Jul 2023 16:30:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-10 11:51:02.525971
- Title: Intelligent Robotic Sonographer: Mutual Information-based Disentangled
Reward Learning from Few Demonstrations
- Title(参考訳): インテリジェント・ロボット・ソノグラフィー:少数のデモから得た相互情報に基づく遠方学習
- Authors: Zhongliang Jiang, Yuan Bi, Mingchuan Zhou, Ying Hu, Michael Burke and
and Nassir Navab
- Abstract要約: この研究では、インテリジェントなロボットソノグラフィーが、自律的に標的解剖を「発見」するために提案されている。
専門家による基礎となる高レベルの生理的知識は神経報酬関数によって推測される。
提案するフレームワークは、さまざまな種類の未知のファントムにしっかりと取り組むことができる。
- 参考スコア(独自算出の注目度): 43.25342191281865
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ultrasound (US) imaging is widely used for biometric measurement and
diagnosis of internal organs due to the advantages of being real-time and
radiation-free. However, due to high inter-operator variability, resulting
images highly depend on operators' experience. In this work, an intelligent
robotic sonographer is proposed to autonomously "explore" target anatomies and
navigate a US probe to a relevant 2D plane by learning from expert. The
underlying high-level physiological knowledge from experts is inferred by a
neural reward function, using a ranked pairwise image comparisons approach in a
self-supervised fashion. This process can be referred to as understanding the
"language of sonography". Considering the generalization capability to overcome
inter-patient variations, mutual information is estimated by a network to
explicitly extract the task-related and domain features in latent space.
Besides, a Gaussian distribution-based filter is developed to automatically
evaluate and take the quality of the expert's demonstrations into account. The
robotic localization is carried out in coarse-to-fine mode based on the
predicted reward associated to B-mode images. To demonstrate the performance of
the proposed approach, representative experiments for the "line" target and
"point" target are performed on vascular phantom and two ex-vivo animal organ
phantoms (chicken heart and lamb kidney), respectively. The results
demonstrated that the proposed advanced framework can robustly work on
different kinds of known and unseen phantoms.
- Abstract(参考訳): 超音波(us)イメージングは、リアルタイムで放射線のない利点があるため、体内臓器の生体計測や診断に広く使われている。
しかし、高い演算子間変動のため、画像は演算子の経験に大きく依存する。
本研究では, 自律的に標的解剖を探索し, 専門家から学び, 関連する2次元平面へ米国探査機を移動させるロボットソノグラファーを提案する。
専門家による基礎となる高レベルの生理学的知識は、自己監督的な方法でランク付けされたペア画像比較アプローチを用いて、神経報酬関数によって推測される。
この過程を「ソノグラフィーの言語」を理解することと呼ぶことができる。
患者間変動を克服する一般化能力を考慮すると、ネットワークによって相互情報を推定し、潜在空間におけるタスク関連およびドメインの特徴を明示的に抽出する。
また、ガウス分布に基づくフィルタを開発し、専門家のデモンストレーションの質を自動的に評価し、考慮する。
ロボットローカライゼーションは、Bモード画像に付随する予測報酬に基づいて粗大なモードで行われる。
提案手法の性能を実証するために, 血管ファントムと2つの動物器官ファントム(ニワトリ心臓と羊腎臓)において, 「ライン」ターゲットと「ポイント」ターゲットの代表的実験を行った。
その結果,提案する高度なフレームワークは,様々な種類の未知のファントムに対して堅牢に動作可能であることが示された。
関連論文リスト
- Active inference and deep generative modeling for cognitive ultrasound [20.383444113659476]
解剖学的環境と相互に相互作用する情報探索エージェントとして,US画像システムを再キャストできることが示唆された。
このようなエージェントは、送信受信シーケンスを自律的に適応して、画像を完全にパーソナライズし、情報取得をその場で積極的に最大化する。
次に,不確実性を積極的に低減し,一連の実験において診断値を最大化する機構をシステムに装備する。
論文 参考訳(メタデータ) (2024-10-17T08:09:14Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - AiAReSeg: Catheter Detection and Segmentation in Interventional
Ultrasound using Transformers [75.20925220246689]
血管内手術は、電離放射線を用いてカテーテルと血管を可視化するFluoroscopyの黄金標準を用いて行われる。
本研究では、最先端機械学習トランスフォーマアーキテクチャを応用して、軸干渉超音波画像シーケンス中のカテーテルを検出し、セグメント化する手法を提案する。
論文 参考訳(メタデータ) (2023-09-25T19:34:12Z) - LOTUS: Learning to Optimize Task-based US representations [39.81131738128329]
超音波画像における臓器の解剖学的セグメンテーションは多くの臨床応用に不可欠である。
既存のディープニューラルネットワークは、臨床的に許容できるパフォーマンスを達成するために、トレーニングのために大量のラベル付きデータを必要とする。
本稿では,タスクベース超音速画像表現を最適化する学習手法を提案する。
論文 参考訳(メタデータ) (2023-07-29T16:29:39Z) - Towards Autonomous Atlas-based Ultrasound Acquisitions in Presence of
Articulated Motion [48.52403516006036]
本稿では、自律型ロボットUS手足のスキャンを可能にする視覚ベースのアプローチを提案する。
この目的のために、アノテートされた血管構造を有するヒト腕のアトラスMRIテンプレートを使用して、軌跡を生成する。
いずれの場合も、このシステムはボランティアの手足で計画された血管構造を取得することができる。
論文 参考訳(メタデータ) (2022-08-10T15:39:20Z) - Image-Guided Navigation of a Robotic Ultrasound Probe for Autonomous
Spinal Sonography Using a Shadow-aware Dual-Agent Framework [35.17207004351791]
本稿では,強化学習エージェントと深層学習エージェントを統合した新しいデュアルエージェントフレームワークを提案する。
提案手法は,US画像を効果的に解釈し,プローブをナビゲートすることで,脊椎の複数の標準視像を取得できる。
論文 参考訳(メタデータ) (2021-11-03T12:11:27Z) - Voice-assisted Image Labelling for Endoscopic Ultrasound Classification
using Neural Networks [48.732863591145964]
本稿では,臨床医が提示した生音声からのEUS画像にラベルを付けるマルチモーダル畳み込みニューラルネットワークアーキテクチャを提案する。
その結果,5つのラベルを持つデータセットにおいて,画像レベルでの予測精度は76%であった。
論文 参考訳(メタデータ) (2021-10-12T21:22:24Z) - Generalized Organ Segmentation by Imitating One-shot Reasoning using
Anatomical Correlation [55.1248480381153]
そこで我々は,アノテーション付きオルガンクラスから一般化されたオルガン概念を学習し,その概念を未知のクラスに転送するOrganNetを提案する。
そこで,OrganNetは臓器形態の幅広い変化に効果的に抵抗でき,一発分節タスクで最先端の結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-30T13:41:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。