論文の概要: Cross-Scale Context Extracted Hashing for Fine-Grained Image Binary
Encoding
- arxiv url: http://arxiv.org/abs/2210.07572v1
- Date: Fri, 14 Oct 2022 06:52:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 16:51:41.498578
- Title: Cross-Scale Context Extracted Hashing for Fine-Grained Image Binary
Encoding
- Title(参考訳): 細粒度画像バイナリ符号化のためのクロススケールコンテキスト抽出ハッシュ
- Authors: Xuetong Xue, Jiaying Shi, Xinxue He, Shenghui Xu, Zhaoming Pan
- Abstract要約: 本稿では,クロススケールコンテキスト抽出ハッシュネットワーク(CSCE-Net)を提案する。
CSCE-Netはコンテンツ関連動的サイン関数(DSF)を学習し、元の単純なサイン関数を置き換える。
我々のCSCE-Netは文脈に敏感で、正確な画像バイナリエンコーディングでうまく機能する。
- 参考スコア(独自算出の注目度): 1.3649494534428745
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep hashing has been widely applied to large-scale image retrieval tasks
owing to efficient computation and low storage cost by encoding
high-dimensional image data into binary codes. Since binary codes do not
contain as much information as float features, the essence of binary encoding
is preserving the main context to guarantee retrieval quality. However, the
existing hashing methods have great limitations on suppressing redundant
background information and accurately encoding from Euclidean space to Hamming
space by a simple sign function. In order to solve these problems, a
Cross-Scale Context Extracted Hashing Network (CSCE-Net) is proposed in this
paper. Firstly, we design a two-branch framework to capture fine-grained local
information while maintaining high-level global semantic information. Besides,
Attention guided Information Extraction module (AIE) is introduced between two
branches, which suppresses areas of low context information cooperated with
global sliding windows. Unlike previous methods, our CSCE-Net learns a
content-related Dynamic Sign Function (DSF) to replace the original simple sign
function. Therefore, the proposed CSCE-Net is context-sensitive and able to
perform well on accurate image binary encoding. We further demonstrate that our
CSCE-Net is superior to the existing hashing methods, which improves retrieval
performance on standard benchmarks.
- Abstract(参考訳): 高次元画像データをバイナリコードに符号化することで、効率的な計算と低ストレージコストのため、大規模な画像検索タスクに広く応用されている。
バイナリコードはフロート機能ほど情報を含まないため、バイナリエンコーディングの本質は、検索品質を保証するためにメインコンテキストを保存することである。
しかし,既存のハッシュ手法では,冗長な背景情報を抑圧し,簡単な符号関数でユークリッド空間からハミング空間へ正確な符号化を行うという大きな制限がある。
これらの問題を解決するために,CSCE-Net(Cross-Scale Context Extracted Hashing Network)を提案する。
まず,高レベルなグローバル意味情報を維持しつつ,きめ細かい局所情報を取り込むための2分岐フレームワークを設計する。
また、2つのブランチ間で注意誘導情報抽出モジュール(aie)が導入され、グローバルスライディングウインドウと連携した低コンテキスト情報の領域が抑制される。
従来の手法とは異なり、CSCE-Netはコンテンツ関連ダイナミックサイン関数(DSF)を学習し、元の単純なサイン関数を置き換える。
そのため,提案したCSCE-Netは文脈に敏感で,正確な画像バイナリエンコーディングを実現できる。
さらに, csce-netは, 従来のハッシュ手法よりも優れており, 標準ベンチマークの検索性能が向上していることを示す。
関連論文リスト
- SEDS: Semantically Enhanced Dual-Stream Encoder for Sign Language Retrieval [82.51117533271517]
以前はRGBビデオをエンコードするだけで高レベルのセマンティックな特徴が得られていた。
既存のRGBベースの手話検索作業は、エンドツーエンドのトレーニングに埋め込まれた濃密な視覚データによる膨大なメモリコストに悩まされる。
本稿では,Semantically Enhanced Dual-Streamという手話表現フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-23T11:31:11Z) - Learning Enriched Features for Fast Image Restoration and Enhancement [166.17296369600774]
本稿では,ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とする。
我々は、高解像度の空間的詳細を同時に保存しながら、複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
提案手法は,デフォーカス・デブロアリング,画像デノイング,超解像,画像強調など,さまざまな画像処理タスクに対して,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2022-04-19T17:59:45Z) - Deep Asymmetric Hashing with Dual Semantic Regression and Class
Structure Quantization [9.539842235137376]
本稿では,三重制約の下で識別ハッシュを生成する二項意味非対称ハッシュ(DSAH)法を提案する。
これら3つの主要コンポーネントにより、ネットワークを介して高品質なハッシュコードを生成することができる。
論文 参考訳(メタデータ) (2021-10-24T16:14:36Z) - A Feature Consistency Driven Attention Erasing Network for Fine-Grained
Image Retrieval [23.76079577951216]
微細な画像検索のための特徴整合性駆動型アテンション消去ネットワーク(FCAENet)を提案する。
最初の問題として、選択的領域消去モジュール(SREM)であるFCAENetの適応拡張モジュールを提案する。
SREMは、いくつかの原画像領域を適応的にカバーすることで、きめ細かなタスクの微妙な違いに対して、ネットワークをより堅牢にする。
CUB2011, Aircraft, NABirds, VegFru, Food101 for 12bits, 24bits, 32bits, 48bits hash code。
論文 参考訳(メタデータ) (2021-10-09T06:51:00Z) - A Holistically-Guided Decoder for Deep Representation Learning with
Applications to Semantic Segmentation and Object Detection [74.88284082187462]
一般的な戦略の1つは、バックボーンネットワークに拡張畳み込みを採用し、高解像度のフィーチャーマップを抽出することです。
本稿では,高分解能なセマンティクスリッチな特徴マップを得るために紹介される,新たなホリスティック誘導デコーダを提案する。
論文 参考訳(メタデータ) (2020-12-18T10:51:49Z) - Unpaired Image-to-Image Translation via Latent Energy Transport [61.62293304236371]
画像から画像への変換は、2つの視覚領域間の識別的ターゲットスタイルに変換しながら、ソースの内容を保存することを目的としている。
本稿では,この課題に対して,事前訓練されたオートエンコーダの潜在空間にエネルギーベースモデル(EBM)を配置することを提案する。
我々のモデルは1024$times$1024- resolution unpaired image translationに適用できる最初のモデルである。
論文 参考訳(メタデータ) (2020-12-01T17:18:58Z) - ExchNet: A Unified Hashing Network for Large-Scale Fine-Grained Image
Retrieval [43.41089241581596]
そこで我々は, きめ細かい画像のためのコンパクトなバイナリコードを生成するために, 新たなきめ細かなハッシュトピックについて検討した。
我々は、ExchNetと呼ばれる、エンドツーエンドのトレーニング可能な統合ネットワークを提案する。
提案手法は,5つのきめ細かいデータセットに対して,最先端の汎用ハッシュ法より一貫して優れている。
論文 参考訳(メタデータ) (2020-08-04T07:01:32Z) - Unsupervised Deep Cross-modality Spectral Hashing [65.3842441716661]
このフレームワークは、最適化をバイナリ最適化とハッシュ関数学習に分離する2段階のハッシュアプローチである。
本稿では,単一モダリティと二項相互モダリティを同時に学習するスペクトル埋め込みに基づく新しいアルゴリズムを提案する。
我々は、画像に強力なCNNを活用し、テキストモダリティを学ぶためのCNNベースのディープアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-08-01T09:20:11Z) - Dual-level Semantic Transfer Deep Hashing for Efficient Social Image
Retrieval [35.78137004253608]
ソーシャルネットワークは膨大な量のユーザ共有画像を保存し、配布する。
ディープハッシュは、大規模社会画像検索をサポートする効率的なインデックス化技術である。
既存の手法は、大量のディープニューラルネットワークパラメータを最適化する際に、深刻なセマンティックな不足に悩まされる。
本稿では,DSTDH(Dual-level Semantic Transfer Deep Hashing)法を提案する。
論文 参考訳(メタデータ) (2020-06-10T01:03:09Z) - Error-Corrected Margin-Based Deep Cross-Modal Hashing for Facial Image
Retrieval [26.706148476396105]
クロスモーダルハッシュは、異種マルチメディアデータの共通のハミング空間へのマッピングを容易にする。
我々は新しいクロスモーダルハッシュアーキテクチャーディープニューラルデコーダクロスモーダルハッシュ(DNDCMH)を提案する。
論文 参考訳(メタデータ) (2020-04-03T08:20:08Z) - Auto-Encoding Twin-Bottleneck Hashing [141.5378966676885]
本稿では,効率よく適応的なコード駆動グラフを提案する。
自動エンコーダのコンテキストでデコードすることで更新される。
ベンチマークデータセットの実験は、最先端のハッシュ手法よりもフレームワークの方が優れていることを明らかに示しています。
論文 参考訳(メタデータ) (2020-02-27T05:58:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。