論文の概要: Attention-based Saliency Hashing for Ophthalmic Image Retrieval
- arxiv url: http://arxiv.org/abs/2012.03466v1
- Date: Mon, 7 Dec 2020 06:04:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-21 06:32:57.287526
- Title: Attention-based Saliency Hashing for Ophthalmic Image Retrieval
- Title(参考訳): 眼科画像検索のための注意に基づくサリエンシハッシュ
- Authors: Jiansheng Fang, Yanwu Xu, Xiaoqing Zhang, Yan Hu, Jiang Liu
- Abstract要約: 光学画像を表すコンパクトハッシュ符号を学習するための注意ベースの Saliency Hashing (ASH) を提案する。
ASHは空間アテンションモジュールを組み込んで、塩分領域の表現にもっと焦点を合わせます。
ashは最先端のディープハッシュ法に比べて検索性能がさらに向上する。
- 参考スコア(独自算出の注目度): 7.6609890269360505
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep hashing methods have been proved to be effective for the large-scale
medical image search assisting reference-based diagnosis for clinicians.
However, when the salient region plays a maximal discriminative role in
ophthalmic image, existing deep hashing methods do not fully exploit the
learning ability of the deep network to capture the features of salient regions
pointedly. The different grades or classes of ophthalmic images may be share
similar overall performance but have subtle differences that can be
differentiated by mining salient regions. To address this issue, we propose a
novel end-to-end network, named Attention-based Saliency Hashing (ASH), for
learning compact hash-code to represent ophthalmic images. ASH embeds a
spatial-attention module to focus more on the representation of salient regions
and highlights their essential role in differentiating ophthalmic images.
Benefiting from the spatial-attention module, the information of salient
regions can be mapped into the hash-code for similarity calculation. In the
training stage, we input the image pairs to share the weights of the network,
and a pairwise loss is designed to maximize the discriminability of the
hash-code. In the retrieval stage, ASH obtains the hash-code by inputting an
image with an end-to-end manner, then the hash-code is used to similarity
calculation to return the most similar images. Extensive experiments on two
different modalities of ophthalmic image datasets demonstrate that the proposed
ASH can further improve the retrieval performance compared to the
state-of-the-art deep hashing methods due to the huge contributions of the
spatial-attention module.
- Abstract(参考訳): 深部ハッシュ法は臨床医の参照ベース診断を支援する大規模医用画像検索に有効であることが証明されている。
しかし,眼底画像において有意な領域が最大の識別的役割を担っている場合,既存の深層ハッシュ法では,有意な領域の特徴を捉えるための深部ネットワークの学習能力を十分に活用できない。
眼科画像の異なるグレードやクラスは、全体的な性能は似ているが、突出した領域を採掘することで区別できる微妙な違いがある。
この問題に対処するため,我々は,眼科画像を表現するためのコンパクトなハッシュコードを学習するための,ASH (Attention-based Saliency Hashing) という新しいエンドツーエンドネットワークを提案する。
ASHは空間的注意モジュールを組み込んで、正常な領域の表現をより重視し、眼球画像の識別において重要な役割を強調している。
空間的アテンションモジュールから恩恵を受けることにより、局所領域の情報をハッシュコードにマッピングして類似性計算を行うことができる。
トレーニング段階では,ネットワークの重みを共有するためにイメージペアを入力し,ハッシュコードの識別性を最大化するためのペアワイズロスを設計する。
検索段階では、ASHは、画像をエンドツーエンドに入力してハッシュコードを取得し、ハッシュコードを類似性計算に使用して最も類似した画像を返却する。
眼画像データセットの2つの異なるモダリティに関する広範囲な実験により,提案するアッシュは,空間アテンションモジュールの多大な寄与により,最先端のディープハッシュ法に比べて検索性能がさらに向上することが示された。
関連論文リスト
- HybridHash: Hybrid Convolutional and Self-Attention Deep Hashing for Image Retrieval [0.3880517371454968]
ハイブリッドハッシュ(HybridHash)と呼ばれるハイブリッド畳み込み型・自己注意型ディープハッシュ法を提案する。
我々はCIFAR-10, NUS-WIDE, ImagingNETの3つの広く利用されているデータセットについて総合的な実験を行った。
実験の結果,提案手法は最先端の深層ハッシュ法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-05-13T07:45:20Z) - NeuroHash: A Hyperdimensional Neuro-Symbolic Framework for Spatially-Aware Image Hashing and Retrieval [5.0923114224599555]
我々は,高次元コンピューティング(HDC)を活用し,高度にカスタマイズ可能な空間認識画像検索を可能にするニューロハッシュという,新しいニューロシンボリック・フレームワークを紹介する。
NeuroHashは、事前トレーニングされたディープニューラルネットワークモデルとHDCベースのシンボリックモデルを組み合わせることで、条件付き画像検索をサポートするためにハッシュ値の柔軟な操作を可能にする。
我々はNuroHashを2つのベンチマークデータセットで評価し、最先端ハッシュ法と比較して優れた性能を示した。
論文 参考訳(メタデータ) (2024-04-17T03:01:47Z) - LEAD: Self-Supervised Landmark Estimation by Aligning Distributions of
Feature Similarity [49.84167231111667]
自己監督型ランドマーク検出における既存の研究は、画像から高密度(ピクセルレベルの)特徴表現を学習することに基づいている。
自己教師付き方式で高密度同変表現の学習を強化するアプローチを提案する。
機能抽出器にそのような先行性があることは,アノテーションの数が大幅に制限されている場合でも,ランドマーク検出に役立ちます。
論文 参考訳(メタデータ) (2022-04-06T17:48:18Z) - ScoreNet: Learning Non-Uniform Attention and Augmentation for
Transformer-Based Histopathological Image Classification [11.680355561258427]
高解像度画像はデジタル病理の進歩を妨げる。
パッチベースの処理は、しばしば複数のインスタンス学習(MIL)を組み込んで、画像レベルの予測をもたらす局所的なパッチレベルの表現を集約する。
本稿では,組織像分類に適したトランスフォーマーアーキテクチャを提案する。
局所的なきめ細かな注意と粗いグローバルな注意機構を組み合わせることで、高解像度画像の意味的な表現を効率的な計算コストで学習する。
論文 参考訳(メタデータ) (2022-02-15T16:55:09Z) - Cross-level Contrastive Learning and Consistency Constraint for
Semi-supervised Medical Image Segmentation [46.678279106837294]
半教師型医用画像セグメンテーションにおける局所特徴の表現能力を高めるためのクロスレベルコンストラシティブ学習手法を提案する。
クロスレベルなコントラスト学習と一貫性制約の助けを借りて、非ラベル付きデータを効果的に探索してセグメンテーション性能を向上させることができる。
論文 参考訳(メタデータ) (2022-02-08T15:12:11Z) - Instance-weighted Central Similarity for Multi-label Image Retrieval [66.23348499938278]
ハッシュコードに対応する中心重みを自動的に学習するために,インスタンス重み付き中央類似度(ICS)を提案する。
特にMS COCOデータセットのmAPを1.6%-6.4%改善する。
論文 参考訳(メタデータ) (2021-08-11T15:18:18Z) - CAMERAS: Enhanced Resolution And Sanity preserving Class Activation
Mapping for image saliency [61.40511574314069]
バックプロパゲーション画像のサリエンシは、入力中の個々のピクセルのモデル中心の重要性を推定することにより、モデル予測を説明することを目的としている。
CAMERASは、外部の事前処理を必要とせずに、高忠実度バックプロパゲーション・サリエンシ・マップを計算できる手法である。
論文 参考訳(メタデータ) (2021-06-20T08:20:56Z) - Deep Triplet Hashing Network for Case-based Medical Image Retrieval [33.21919320742157]
我々は、低次元のハッシュコードを学ぶために、Attention-based Triplet Hashing (ATH) ネットワークと呼ばれるエンドツーエンドのフレームワークを提案する。
提案したATHは,最先端のディープハッシュ法と比較して,検索性能を向上できることを示す。
論文 参考訳(メタデータ) (2021-01-29T01:35:46Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Deep Reinforcement Learning with Label Embedding Reward for Supervised
Image Hashing [85.84690941656528]
深層型ハッシュのための新しい意思決定手法を提案する。
我々はBose-Chaudhuri-Hocquenghem符号で定義された新しいラベル埋め込み報酬を用いて、深いQ-ネットワークを学ぶ。
我々の手法は、様々なコード長で最先端の教師付きハッシュ法より優れています。
論文 参考訳(メタデータ) (2020-08-10T09:17:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。