論文の概要: OnUVS: Online Feature Decoupling Framework for High-Fidelity Ultrasound
Video Synthesis
- arxiv url: http://arxiv.org/abs/2308.08269v1
- Date: Wed, 16 Aug 2023 10:16:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-17 13:54:49.180918
- Title: OnUVS: Online Feature Decoupling Framework for High-Fidelity Ultrasound
Video Synthesis
- Title(参考訳): OnUVS:高精細超音波ビデオ合成のためのオンライン機能分離フレームワーク
- Authors: Han Zhou, Dong Ni, Ao Chang, Xinrui Zhou, Rusi Chen, Yanlin Chen, Lian
Liu, Jiamin Liang, Yuhao Huang, Tong Han, Zhe Liu, Deng-Ping Fan, Xin Yang
- Abstract要約: ソノグラフィーは、包括的な情報を集めるために対応する動的解剖構造を観察しなければならない。
アメリカのビデオの合成は、この問題に対する有望な解決策になるかもしれない。
我々は,高忠実度USビデオ合成のためのオンライン機能分離フレームワークOnUVSを提案する。
- 参考スコア(独自算出の注目度): 34.07625938756013
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ultrasound (US) imaging is indispensable in clinical practice. To diagnose
certain diseases, sonographers must observe corresponding dynamic anatomic
structures to gather comprehensive information. However, the limited
availability of specific US video cases causes teaching difficulties in
identifying corresponding diseases, which potentially impacts the detection
rate of such cases. The synthesis of US videos may represent a promising
solution to this issue. Nevertheless, it is challenging to accurately animate
the intricate motion of dynamic anatomic structures while preserving image
fidelity. To address this, we present a novel online feature-decoupling
framework called OnUVS for high-fidelity US video synthesis. Our highlights can
be summarized by four aspects. First, we introduced anatomic information into
keypoint learning through a weakly-supervised training strategy, resulting in
improved preservation of anatomical integrity and motion while minimizing the
labeling burden. Second, to better preserve the integrity and textural
information of US images, we implemented a dual-decoder that decouples the
content and textural features in the generator. Third, we adopted a
multiple-feature discriminator to extract a comprehensive range of visual cues,
thereby enhancing the sharpness and fine details of the generated videos.
Fourth, we constrained the motion trajectories of keypoints during online
learning to enhance the fluidity of generated videos. Our validation and user
studies on in-house echocardiographic and pelvic floor US videos showed that
OnUVS synthesizes US videos with high fidelity.
- Abstract(参考訳): 超音波(US)イメージングは臨床には不可欠である。
特定の疾患を診断するためには、ソノグラフィーは対応する動的解剖学的構造を観察して包括的な情報を集める必要がある。
しかし、米国の特定のビデオケースが限られているため、対応する疾患の特定が難しくなり、検出率に影響を及ぼす可能性がある。
アメリカのビデオの合成は、この問題に対する有望な解決策になるかもしれない。
それでも、画像の忠実さを維持しながら、動的解剖学的構造の複雑な動きを正確にアニメーションすることは困難である。
そこで本研究では,高忠実度USビデオ合成のためのオンライン機能分離フレームワークOnUVSを提案する。
私たちのハイライトは4つの側面で要約できる。
まず,キーポイント学習に下位教師付き学習戦略を通じて解剖情報を導入した結果,ラベリング負担を最小限に抑えつつ解剖学的完全性と運動の保存性が向上した。
第2に,画像の完全性とテクスチャ情報の保存性を向上させるため,ジェネレータ内のコンテンツとテキストの特徴を分離するデュアルデコーダを実装した。
第3に,多機能判別器を用いて視覚手がかりの包括的範囲を抽出し,映像のシャープさと細部を向上させた。
第4に,オンライン学習中のキーポイントの動き軌跡を制約し,生成ビデオの流動性を高めた。
心エコー図と骨盤底ビデオの検証とユーザスタディにより,OnUVSは高忠実度でUSビデオを合成することがわかった。
関連論文リスト
- TASL-Net: Tri-Attention Selective Learning Network for Intelligent Diagnosis of Bimodal Ultrasound Video [10.087796410298061]
本稿では,この課題に対処するための新しい3段階選択学習ネットワーク(TASL-Net)を提案する。
TASL-Netは、超音波ビデオのインテリジェント診断のための相互変換フレームワークに、ソノグラフィーの3種類の診断注意を組み込む。
肺,乳房,肝臓の3つのデータセット上でTASL-Netの性能を詳細に検証した。
論文 参考訳(メタデータ) (2024-09-03T02:50:37Z) - FLex: Joint Pose and Dynamic Radiance Fields Optimization for Stereo Endoscopic Videos [79.50191812646125]
内視鏡的シーンの再構築は、外科手術後の分析から教育訓練まで、様々な医療応用にとって重要な要素である。
変形組織の非常にダイナミックな環境下での移動内視鏡の挑戦的なセットアップに着目する。
複数重重なり合う4次元ニューラルラジアンスフィールド(NeRF)への暗黙的なシーン分離と、再構成とカメラのスクラッチからのポーズを協調的に最適化するプログレッシブ最適化手法を提案する。
これにより、使いやすさが向上し、5000フレーム以上の手術ビデオの処理に間に合うように復元能力を拡張できる。
論文 参考訳(メタデータ) (2024-03-18T19:13:02Z) - Diffusion Priors for Dynamic View Synthesis from Monocular Videos [59.42406064983643]
ダイナミックノベルビュー合成は、ビデオ内の視覚的コンテンツの時間的進化を捉えることを目的としている。
まず、ビデオフレーム上に予め訓練されたRGB-D拡散モデルをカスタマイズ手法を用いて微調整する。
動的および静的なニューラルレイディアンス場を含む4次元表現に、微調整されたモデルから知識を蒸留する。
論文 参考訳(メタデータ) (2024-01-10T23:26:41Z) - Echocardiography video synthesis from end diastolic semantic map via
diffusion model [0.0]
本稿では,心臓ビデオ合成のために既存のビデオ拡散モデルを拡張し,課題に対処することを目的とする。
我々の焦点は、心循環中に初期フレームのセマンティックマップを用いてビデオを生成することであり、一般にエンドダイアストルと呼ばれる。
本モデルでは,FID,FVD,SSMIなどの複数の指標を用いて,標準拡散法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-10-11T02:08:05Z) - Weakly-supervised High-fidelity Ultrasound Video Synthesis with Feature
Decoupling [13.161739586288704]
臨床実践において、分析と診断は、動的解剖情報を得るために単一の画像ではなくアメリカのシーケンスに依存することが多い。
患者からの適切なビデオで練習することは、臨床的には実践的ではないため、初心者には学ぶことが難しい。
我々は,高忠実度US動画を合成するための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-07-01T14:53:22Z) - A New Dataset and A Baseline Model for Breast Lesion Detection in
Ultrasound Videos [43.42513012531214]
乳房病変検出のための超音波ビデオデータセット(188ビデオ)をまず収集し,注釈する。
超音波映像における胸部病変検出のためのクリップレベル・ビデオレベルのアグリゲートネットワーク(CVA-Net)を提案する。
論文 参考訳(メタデータ) (2022-07-01T01:37:50Z) - Voice-assisted Image Labelling for Endoscopic Ultrasound Classification
using Neural Networks [48.732863591145964]
本稿では,臨床医が提示した生音声からのEUS画像にラベルを付けるマルチモーダル畳み込みニューラルネットワークアーキテクチャを提案する。
その結果,5つのラベルを持つデータセットにおいて,画像レベルでの予測精度は76%であった。
論文 参考訳(メタデータ) (2021-10-12T21:22:24Z) - Unsupervised multi-latent space reinforcement learning framework for
video summarization in ultrasound imaging [0.0]
新型コロナウイルス(COVID-19)のパンデミックは、超音波スキャンのトリアージを高速化するツールの必要性を強調している。
提案手法は,この方向への一歩である。
そこで我々は,新しい報酬を伴う教師なし強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-03T04:50:35Z) - Relational Graph Learning on Visual and Kinematics Embeddings for
Accurate Gesture Recognition in Robotic Surgery [84.73764603474413]
本稿では,マルチモーダルグラフネットワーク(MRG-Net)の新たなオンラインアプローチを提案し,視覚情報とキネマティクス情報を動的に統合する。
本手法の有効性は, JIGSAWSデータセット上での最先端の成果で実証された。
論文 参考訳(メタデータ) (2020-11-03T11:00:10Z) - Non-Adversarial Video Synthesis with Learned Priors [53.26777815740381]
我々は、参照入力フレームを使わずに、遅延雑音ベクトルからビデオを生成する問題に焦点をあてる。
本研究では,入力潜時空間,繰り返しニューラルネットワークの重み付け,非対角学習によるジェネレータを協調的に最適化する手法を開発した。
提案手法は,既存の最先端手法と比較して高品質なビデオを生成する。
論文 参考訳(メタデータ) (2020-03-21T02:57:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。