論文の概要: Error-Corrected Margin-Based Deep Cross-Modal Hashing for Facial Image
Retrieval
- arxiv url: http://arxiv.org/abs/2004.03378v1
- Date: Fri, 3 Apr 2020 08:20:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 04:55:25.295247
- Title: Error-Corrected Margin-Based Deep Cross-Modal Hashing for Facial Image
Retrieval
- Title(参考訳): 顔画像検索のための誤り補正マージンベースディープクロスモーダルハッシュ
- Authors: Fariborz Taherkhani, Veeru Talreja, Matthew C. Valenti, Nasser M.
Nasrabadi
- Abstract要約: クロスモーダルハッシュは、異種マルチメディアデータの共通のハミング空間へのマッピングを容易にする。
我々は新しいクロスモーダルハッシュアーキテクチャーディープニューラルデコーダクロスモーダルハッシュ(DNDCMH)を提案する。
- 参考スコア(独自算出の注目度): 26.706148476396105
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cross-modal hashing facilitates mapping of heterogeneous multimedia data into
a common Hamming space, which can beutilized for fast and flexible retrieval
across different modalities. In this paper, we propose a novel cross-modal
hashingarchitecture-deep neural decoder cross-modal hashing (DNDCMH), which
uses a binary vector specifying the presence of certainfacial attributes as an
input query to retrieve relevant face images from a database. The DNDCMH
network consists of two separatecomponents: an attribute-based deep cross-modal
hashing (ADCMH) module, which uses a margin (m)-based loss function
toefficiently learn compact binary codes to preserve similarity between
modalities in the Hamming space, and a neural error correctingdecoder (NECD),
which is an error correcting decoder implemented with a neural network. The
goal of NECD network in DNDCMH isto error correct the hash codes generated by
ADCMH to improve the retrieval efficiency. The NECD network is trained such
that it hasan error correcting capability greater than or equal to the margin
(m) of the margin-based loss function. This results in NECD cancorrect the
corrupted hash codes generated by ADCMH up to the Hamming distance of m. We
have evaluated and comparedDNDCMH with state-of-the-art cross-modal hashing
methods on standard datasets to demonstrate the superiority of our method.
- Abstract(参考訳): クロスモーダルハッシュは、異種マルチメディアデータの共通のハミング空間へのマッピングを容易にする。
本稿では,ある顔属性の存在を入力クエリとして指定するバイナリベクトルを用いて,データベースから関連する顔画像を取得する,新たなクロスモーダルハッシュ方式であるdndcmh(cross-modal hashingarchitecture-deep neural decoder cross-modal hashing)を提案する。
DNDCMHネットワークは、属性ベースのDeep Cross-modal Hashing (ADCMH)モジュールと、マージン(m)ベースの損失関数を使用して、ハミング空間のモダリティ間の類似性を維持するためにコンパクトなバイナリコードを効率よく学習するニューラルネットワークで実装されたエラー訂正デコーダ(NECD)の2つの分離コンポーネントから構成される。
DNDCMHにおけるNECDネットワークの目的は、ADCMHが生成したハッシュコードを誤り訂正し、検索効率を向上させることである。
NECDネットワークは、マージンベース損失関数のマージン(m)よりも大きい誤差補正能力を有するように訓練される。
その結果、NECDは、ADCMHが生成した劣化したハッシュコードをmのハミング距離まで補正する。
我々はDNDCMHを標準データセット上で最先端のクロスモーダルハッシュ法と比較し,本手法の優位性を実証した。
関連論文リスト
- Contrastive masked auto-encoders based self-supervised hashing for 2D image and 3D point cloud cross-modal retrieval [5.965791109321719]
2D画像と3Dポイントクラウドデータの相互ハッシュ化は、現実世界の検索システムにおいてますます懸念される。
画像とポイントクラウドデータ間の検索のために,コントラッシブマスク付きオートエンコーダを用いた自己教師型ハッシュ(CMAH)を提案する。
論文 参考訳(メタデータ) (2024-08-11T07:03:21Z) - Sparse-Inductive Generative Adversarial Hashing for Nearest Neighbor
Search [8.020530603813416]
本稿では,Sparsity-induced Generative Adversarial Hashing (SiGAH)と呼ばれる新しい教師なしハッシュ法を提案する。
SiGAHは、大規模な高次元特徴をバイナリコードにエンコードする。
Tiny100K、GIST1M、Deep1M、MNISTの4つのベンチマーク実験の結果、提案されたSiGAHは最先端のアプローチよりも優れた性能を示している。
論文 参考訳(メタデータ) (2023-06-12T08:07:23Z) - Unsupervised Contrastive Hashing for Cross-Modal Retrieval in Remote
Sensing [1.6758573326215689]
クロスモーダルテキスト画像検索はリモートセンシングにおいて大きな注目を集めている。
RSにおけるテキスト画像検索のための新しい教師なしクロスモーダルコントラストハッシュ法(DUCH)を提案する。
実験結果から,提案するDUCHは最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2022-04-19T07:25:25Z) - Reducing Redundancy in the Bottleneck Representation of the Autoencoders [98.78384185493624]
オートエンコーダは教師なしニューラルネットワークの一種であり、様々なタスクを解くのに使用できる。
本稿では,ボトルネック表現における特徴冗長性を明示的に罰する手法を提案する。
我々は,3つの異なるデータセットを用いた次元削減,MNISTデータセットを用いた画像圧縮,ファッションMNISTを用いた画像デノナイズという,さまざまなタスクにまたがってアプローチを検証した。
論文 参考訳(メタデータ) (2022-02-09T18:48:02Z) - Deep Unsupervised Contrastive Hashing for Large-Scale Cross-Modal
Text-Image Retrieval in Remote Sensing [1.6758573326215689]
本稿では,RSテキスト画像検索のための新しい非教師付きクロスモーダルコントラストハッシュ法(DUCH)を提案する。
実験結果から, DUCHは最先端の教師なしクロスモーダルハッシュ法より優れていることがわかった。
私たちのコードはhttps://git.tu-berlin.de/rsim/duch.comで公開されています。
論文 参考訳(メタデータ) (2022-01-20T12:05:10Z) - HHF: Hashing-guided Hinge Function for Deep Hashing Retrieval [14.35219963508551]
textbfDeep textbfNeural textbfNetwork (DNN)によって抽出された潜時コードは、バイナライゼーションプロセス中に必然的にセマンティック情報を失う。
textbfHashing-guided textbfHinge textbfFunction (HHF) はそのような衝突を避けるために提案されている。
本稿では,パラメータ学習と量子化学習のバランスをとるために,ハッシュビット長とカテゴリ数に依存する特定の屈折点を慎重に設計する。
論文 参考訳(メタデータ) (2021-12-04T03:16:42Z) - Deep Momentum Uncertainty Hashing [65.27971340060687]
我々は,新しいDeep Momentum Uncertainity Hashing (DMUH)を提案する。
トレーニング中の不確実性を明示的に推定し、不確実性情報を利用して近似過程を導出する。
提案手法は,すべてのデータセット上で最高の性能を達成し,既存の最先端手法を大きなマージンで超越する。
論文 参考訳(メタデータ) (2020-09-17T01:57:45Z) - Deep Reinforcement Learning with Label Embedding Reward for Supervised
Image Hashing [85.84690941656528]
深層型ハッシュのための新しい意思決定手法を提案する。
我々はBose-Chaudhuri-Hocquenghem符号で定義された新しいラベル埋め込み報酬を用いて、深いQ-ネットワークを学ぶ。
我々の手法は、様々なコード長で最先端の教師付きハッシュ法より優れています。
論文 参考訳(メタデータ) (2020-08-10T09:17:20Z) - Unsupervised Deep Cross-modality Spectral Hashing [65.3842441716661]
このフレームワークは、最適化をバイナリ最適化とハッシュ関数学習に分離する2段階のハッシュアプローチである。
本稿では,単一モダリティと二項相互モダリティを同時に学習するスペクトル埋め込みに基づく新しいアルゴリズムを提案する。
我々は、画像に強力なCNNを活用し、テキストモダリティを学ぶためのCNNベースのディープアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-08-01T09:20:11Z) - Deep Hashing with Hash-Consistent Large Margin Proxy Embeddings [65.36757931982469]
画像ハッシュコードは、分類または検索のために訓練された畳み込みニューラルネットワーク(CNN)の埋め込みをバイナライズすることによって生成される。
この曖昧さを解消するために、固定されたプロキシ(CNN分類層の重み)の使用が提案されている。
得られたHCLMプロキシはハッシュ単位の飽和を促進することが示され、小さな二項化誤差が保証される。
論文 参考訳(メタデータ) (2020-07-27T23:47:43Z) - Learning to Hash with Graph Neural Networks for Recommender Systems [103.82479899868191]
グラフ表現学習は、大規模に高品質な候補探索をサポートすることに多くの注目を集めている。
ユーザ・イテム相互作用ネットワークにおけるオブジェクトの埋め込みベクトルの学習の有効性にもかかわらず、連続的な埋め込み空間におけるユーザの好みを推測する計算コストは膨大である。
連続的かつ離散的なコードとを協調的に学習するための,単純かつ効果的な離散表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-04T06:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。