論文の概要: A clinically motivated self-supervised approach for content-based image
retrieval of CT liver images
- arxiv url: http://arxiv.org/abs/2207.04812v1
- Date: Mon, 11 Jul 2022 12:16:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-12 19:05:54.914900
- Title: A clinically motivated self-supervised approach for content-based image
retrieval of CT liver images
- Title(参考訳): CT肝画像のコンテントベース画像検索のための臨床的動機付け自己監督的アプローチ
- Authors: Kristoffer Knutsen Wickstr{\o}m and Eirik Agnalt {\O}stmo and Keyur
Radiya and Karl {\O}yvind Mikalsen and Michael Christian Kampffmeyer and
Robert Jenssen
- Abstract要約: ドメイン知識を学習手順に組み込んだ自己教師型学習フレームワークを提案する。
また,CT肝画像のCBIRの文脈における最初の表現学習説明可能性分析も提供する。
その結果,従来の自己監督手法と比較して性能が向上した。
- 参考スコア(独自算出の注目度): 11.829945671246598
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning-based approaches for content-based image retrieval (CBIR) of CT
liver images is an active field of research, but suffers from some critical
limitations. First, they are heavily reliant on labeled data, which can be
challenging and costly to acquire. Second, they lack transparency and
explainability, which limits the trustworthiness of deep CBIR systems. We
address these limitations by (1) proposing a self-supervised learning framework
that incorporates domain-knowledge into the training procedure and (2)
providing the first representation learning explainability analysis in the
context of CBIR of CT liver images. Results demonstrate improved performance
compared to the standard self-supervised approach across several metrics, as
well as improved generalisation across datasets. Further, we conduct the first
representation learning explainability analysis in the context of CBIR, which
reveals new insights into the feature extraction process. Lastly, we perform a
case study with cross-examination CBIR that demonstrates the usability of our
proposed framework. We believe that our proposed framework could play a vital
role in creating trustworthy deep CBIR systems that can successfully take
advantage of unlabeled data.
- Abstract(参考訳): 深層学習に基づくCT肝画像のコンテントベース画像検索(CBIR)のアプローチは研究の活発な分野であるが、いくつかの限界がある。
まず、ラベル付きデータに大きく依存しているため、取得が困難でコストがかかる可能性がある。
第2に、深いCBIRシステムの信頼性を制限する透明性と説明性がない。
本研究では,(1)訓練手順にドメイン知識を組み込んだ自己教師型学習フレームワークを提案し,(2)CT肝画像のCBIRにおける最初の表現学習説明可能性分析を提供する。
その結果、複数のメトリクスをまたいだ標準的な自己教師付きアプローチと比較して、パフォーマンスが向上し、データセット全体の一般化が向上した。
さらに,CBIRの文脈における最初の表現学習説明可能性分析を行い,特徴抽出プロセスにおける新たな洞察を明らかにする。
最後に,提案フレームワークのユーザビリティを実証するクロスサーベイションCBIRを用いて,ケーススタディを行う。
我々の提案するフレームワークは、ラベルのないデータをうまく活用できる信頼性の高い深部CBIRシステムを作成する上で重要な役割を担っていると信じている。
関連論文リスト
- Mind the Context: Attention-Guided Weak-to-Strong Consistency for Enhanced Semi-Supervised Medical Image Segmentation [14.67636369741001]
本稿では,AIGCMatch (Attention-Guided weak-to-strong Consistency Match) という半教師付き学習フレームワークを提案する。
AIGCMatchフレームワークは、イメージレベルと特徴レベルの両方において注意誘導の摂動戦略を取り入れ、弱い一貫性の規則化を実現する。
本手法は, ACDCデータセットの7ケースシナリオにおいて90.4%のDiceスコアを達成し, 最先端の手法を超越し, 臨床環境におけるその可能性と有効性を示した。
論文 参考訳(メタデータ) (2024-10-16T10:04:22Z) - Advancing Medical Radiograph Representation Learning: A Hybrid Pre-training Paradigm with Multilevel Semantic Granularity [14.223539927549782]
本稿では,グローバルレベルの視覚表現と印象とトークンレベルの視覚表現とを一致させるHybridMEDフレームワークを提案する。
本フレームワークでは,画像から印象を生成するための2つのプロキシタスクを,キャプションブランチを介して生成する生成デコーダと,(2)要約ブランチを介して解析を行う。
MIMIC-CXRデータセットの実験により,我々の要約部は,キャプション部に対する知識を効果的に蒸留し,パラメータ要求を大幅に増大させることなくモデル性能を向上させることを明らかにした。
論文 参考訳(メタデータ) (2024-10-01T07:05:36Z) - Symmetrical Bidirectional Knowledge Alignment for Zero-Shot Sketch-Based
Image Retrieval [69.46139774646308]
本稿ではゼロショットスケッチベース画像検索(ZS-SBIR)の問題点について検討する。
目に見えないカテゴリのスケッチをクエリとして使用して、同じカテゴリのイメージにマッチさせることが目的だ。
ゼロショットスケッチに基づく画像検索(SBKA)のための新しい対称双方向知識アライメントを提案する。
論文 参考訳(メタデータ) (2023-12-16T04:50:34Z) - Advancements in Content-Based Image Retrieval: A Comprehensive Survey of
Relevance Feedback Techniques [0.0]
コンテントベース画像検索(CBIR)システムはコンピュータビジョンの分野で重要なツールとして登場してきた。
本稿では,対象検出におけるCBIRの役割と,コンテンツ特徴に基づく視覚的に類似した画像の識別と検索の可能性について,包括的に概説する。
低レベルの特徴と高レベルのセマンティック概念の相違から生じるセマンティックギャップについて詳述し、このギャップを橋渡しするためのアプローチを探る。
論文 参考訳(メタデータ) (2023-12-13T11:07:32Z) - Robust Saliency-Aware Distillation for Few-shot Fine-grained Visual
Recognition [57.08108545219043]
サンプルが少ない新しいサブカテゴリを認識することは、コンピュータビジョンにおいて不可欠で挑戦的な研究課題である。
既存の文献は、ローカルベースの表現アプローチを採用することでこの問題に対処している。
本稿では,ロバスト・サリエンシ・アウェア蒸留法(RSaD)を提案する。
論文 参考訳(メタデータ) (2023-05-12T00:13:17Z) - Localized Region Contrast for Enhancing Self-Supervised Learning in
Medical Image Segmentation [27.82940072548603]
本稿では,地域コントラスト(LRC)を統合した新しいコントラスト学習フレームワークを提案する。
提案手法では,Felzenszwalbのアルゴリズムによるスーパーピクセルの同定と,新しいコントラッシブサンプリング損失を用いた局所コントラスト学習を行う。
論文 参考訳(メタデータ) (2023-04-06T22:43:13Z) - A Knowledge-based Learning Framework for Self-supervised Pre-training
Towards Enhanced Recognition of Medical Images [14.304996977665212]
本研究では,医用画像の認識向上に向けた知識ベース学習フレームワークを提案する。
コントラスト学習と生成学習モデルを相乗化することで、3つのフェーズで機能する。
提案したフレームワークは、AUC/DiceのSimCLRよりも2.08, 1.23, 1.12, 0.76, 1.38ポイント改善された自己教師型ベンチマークで統計的に優れている。
論文 参考訳(メタデータ) (2022-11-27T03:58:58Z) - A Principled Design of Image Representation: Towards Forensic Tasks [75.40968680537544]
本稿では, 理論, 実装, 応用の観点から, 法科学指向の画像表現を別の問題として検討する。
理論レベルでは、Dense Invariant Representation (DIR)と呼ばれる、数学的保証を伴う安定した記述を特徴とする、新しい法医学の表現フレームワークを提案する。
本稿では, ドメインパターンの検出とマッチング実験について, 最先端の記述子との比較結果を提供する。
論文 参考訳(メタデータ) (2022-03-02T07:46:52Z) - Towards Unbiased COVID-19 Lesion Localisation and Segmentation via
Weakly Supervised Learning [66.36706284671291]
本研究では,画像レベルラベルのみに監視されたデータ駆動型フレームワークを提案する。
このフレームワークは、生成する対向ネットワークと病変特異的デコーダの助けを借りて、原画像から潜在的な病変を明示的に分離することができる。
論文 参考訳(メタデータ) (2021-03-01T06:05:49Z) - Explaining Clinical Decision Support Systems in Medical Imaging using
Cycle-Consistent Activation Maximization [112.2628296775395]
ディープニューラルネットワークを用いた臨床意思決定支援は、着実に関心が高まりつつあるトピックとなっている。
臨床医は、その根底にある意思決定プロセスが不透明で理解しにくいため、この技術の採用をためらうことが多い。
そこで我々は,より小さなデータセットであっても,分類器決定の高品質な可視化を生成するCycleGANアクティベーションに基づく,新たな意思決定手法を提案する。
論文 参考訳(メタデータ) (2020-10-09T14:39:27Z) - Self-supervised Learning from a Multi-view Perspective [121.63655399591681]
自己教師型表現はタスク関連情報を抽出し,タスク関連情報を破棄することができることを示す。
我々の理論的枠組みは、自己教師型学習目標設計のより広い空間への道を開くものである。
論文 参考訳(メタデータ) (2020-06-10T00:21:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。