論文の概要: Boosting Breast Ultrasound Video Classification by the Guidance of
Keyframe Feature Centers
- arxiv url: http://arxiv.org/abs/2306.06877v1
- Date: Mon, 12 Jun 2023 05:30:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 15:58:04.607982
- Title: Boosting Breast Ultrasound Video Classification by the Guidance of
Keyframe Feature Centers
- Title(参考訳): キーフレーム特徴中心の誘導による乳房超音波映像の分類
- Authors: AnLan Sun, Zhao Zhang, Meng Lei, Yuting Dai, Dong Wang, Liwei Wang
- Abstract要約: 超音波映像分類の性能を高めるため,KGA-Netとコヒーレンス損失を提案する。
本手法は,公開BUSVデータセットの性能を大きなマージンで向上させる。
- 参考スコア(独自算出の注目度): 16.527815681294534
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Breast ultrasound videos contain richer information than ultrasound images,
therefore it is more meaningful to develop video models for this diagnosis
task. However, the collection of ultrasound video datasets is much harder. In
this paper, we explore the feasibility of enhancing the performance of
ultrasound video classification using the static image dataset. To this end, we
propose KGA-Net and coherence loss. The KGA-Net adopts both video clips and
static images to train the network. The coherence loss uses the feature centers
generated by the static images to guide the frame attention in the video model.
Our KGA-Net boosts the performance on the public BUSV dataset by a large
margin. The visualization results of frame attention prove the explainability
of our method. The codes and model weights of our method will be made publicly
available.
- Abstract(参考訳): 乳房超音波ビデオは超音波画像よりもリッチな情報を含んでいるため、この診断タスクのためのビデオモデルを開発することが重要である。
しかし、超音波ビデオデータセットの収集は非常に困難である。
本稿では,静的画像データセットを用いた超音波映像分類の性能向上の可能性を検討する。
そこで我々はKGA-Netとコヒーレンス損失を提案する。
KGA-Netはビデオクリップと静的イメージの両方を採用してネットワークをトレーニングしている。
コヒーレンスロスは、静止画像によって生成された特徴中心を用いて、ビデオモデルのフレームの注意を誘導する。
我々のKGA-Netは、公開BUSVデータセットのパフォーマンスを大きなマージンで向上させます。
フレームアテンションの可視化結果は,本手法の説明可能性を示している。
私たちの手法のコードとモデルの重み付けを公開します。
関連論文リスト
- DreamVideo: High-Fidelity Image-to-Video Generation with Image Retention and Text Guidance [69.0740091741732]
本研究では,DreamVideo という名前の事前学習ビデオ拡散モデルに基づくフレーム保持分岐を考案し,高忠実度映像生成手法を提案する。
我々のモデルには強力な画像保持能力があり、我々の知る限り、他の画像-映像モデルと比較して、UCF101で最高の結果をもたらす。
論文 参考訳(メタデータ) (2023-12-05T03:16:31Z) - A Complementary Global and Local Knowledge Network for Ultrasound
denoising with Fine-grained Refinement [0.7424725048947504]
超音波イメージングは、一般的に臨床検査で使用される効果的で非侵襲的な診断ツールとして機能する。
既存のスペックルノイズ低減手法は、過剰な画像の平滑化を誘発するか、詳細情報を適切に保存することができない。
微細な精細化を伴う超音波診断のための補完的グローバル・ローカル知識ネットワークを提案する。
論文 参考訳(メタデータ) (2023-10-05T09:12:34Z) - A New Dataset and A Baseline Model for Breast Lesion Detection in
Ultrasound Videos [43.42513012531214]
乳房病変検出のための超音波ビデオデータセット(188ビデオ)をまず収集し,注釈する。
超音波映像における胸部病変検出のためのクリップレベル・ビデオレベルのアグリゲートネットワーク(CVA-Net)を提案する。
論文 参考訳(メタデータ) (2022-07-01T01:37:50Z) - VRAG: Region Attention Graphs for Content-Based Video Retrieval [85.54923500208041]
Region Attention Graph Networks (VRAG) は最先端のビデオレベルの手法を改善している。
VRAGは、地域レベルの特徴を通して、より細かい粒度のビデオを表現し、地域レベルの関係を通して、ビデオ時間ダイナミクスをエンコードする。
本研究では,映像のセグメント化や映像検索にショット埋め込みを用いることで,映像レベルとフレームレベルの性能差を低減できることを示す。
論文 参考訳(メタデータ) (2022-05-18T16:50:45Z) - Weakly-Supervised Action Detection Guided by Audio Narration [50.4318060593995]
ナレーション管理から学習し,RGB,モーションフロー,環境音などのマルチモーダル特徴を利用するモデルを提案する。
実験の結果,ノイズの多い音声ナレーションは優れた行動検出モデルを学ぶのに十分であることがわかった。
論文 参考訳(メタデータ) (2022-05-12T06:33:24Z) - Weakly Supervised Contrastive Learning for Better Severity Scoring of
Lung Ultrasound [0.044364554283083675]
超音波スキャンの外観を評価することに依存する、いくつかのAIベースの患者重症度評価モデルが提案されている。
ビデオクリップ中の全ての超音波フレームにラベルを付けるという課題に対処する。
比較学習法では,ビデオクリップの重大度ラベルを,個々のフレームに対して弱い重大度ラベルとして扱う。
従来のクロスエントロピー損失に基づくトレーニングよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-01-18T23:45:18Z) - Localizing Visual Sounds the Hard Way [149.84890978170174]
音を発する物体を含む画像であっても、難しい画像断片を明示的に識別するようにネットワークを訓練します。
提案アルゴリズムは,Flickr SoundNetデータセット上での最先端性能を実現する。
最近導入されたVGG-Soundデータセットの新しいアノテーションセットであるVGG-Sound Source(VGG-SS)ベンチマークを紹介します。
論文 参考訳(メタデータ) (2021-04-06T17:38:18Z) - Video Captioning in Compressed Video [1.953018353016675]
保存した圧縮映像を直接操作する映像キャプション手法を提案する。
ビデオキャプションの識別的視覚表現を学習するために,Iフレームに注目する領域を検出する残差支援エンコーダ (RAE) を設計する。
本手法を2つのベンチマークデータセットで評価し,本手法の有効性を示す。
論文 参考訳(メタデータ) (2021-01-02T03:06:03Z) - Coherent Loss: A Generic Framework for Stable Video Segmentation [103.78087255807482]
ビデオセグメンテーションの結果の視覚的品質を,ジッタリングアーティファクトがいかに劣化させるかを検討する。
本稿では,ニューラルネットワークの性能向上を目的とした汎用フレームワークを備えたコヒーレントロスを提案する。
論文 参考訳(メタデータ) (2020-10-25T10:48:28Z) - Zero-Shot Video Object Segmentation via Attentive Graph Neural Networks [150.5425122989146]
本研究は、ゼロショットビデオオブジェクトセグメンテーション(ZVOS)のための新しい注意グラフニューラルネットワーク(AGNN)を提案する。
AGNNは、フレームをノードとして効率的に表現し、任意のフレームペア間の関係をエッジとして表現するために、完全に連結されたグラフを構築している。
3つのビデオセグメンテーションデータセットの実験結果は、AGNNがそれぞれのケースに新しい最先端を設定していることを示している。
論文 参考訳(メタデータ) (2020-01-19T10:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。