論文の概要: Deep Multi-View Enhancement Hashing for Image Retrieval
- arxiv url: http://arxiv.org/abs/2002.00169v2
- Date: Tue, 16 Jun 2020 02:41:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 00:56:45.315139
- Title: Deep Multi-View Enhancement Hashing for Image Retrieval
- Title(参考訳): 画像検索のための深層多視点強調ハッシュ
- Authors: Chenggang Yan, Biao Gong, Yuxuan Wei, Yue Gao
- Abstract要約: 本稿では,ニューラルネットワークによるマルチビュー情報の強化が可能な教師付きマルチビューハッシュモデルを提案する。
提案手法は, CIFAR-10, NUS-WIDE, MS-COCOデータセットを用いて, システム評価を行った。
- 参考スコア(独自算出の注目度): 40.974719473643724
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hashing is an efficient method for nearest neighbor search in large-scale
data space by embedding high-dimensional feature descriptors into a similarity
preserving Hamming space with a low dimension. However, large-scale high-speed
retrieval through binary code has a certain degree of reduction in retrieval
accuracy compared to traditional retrieval methods. We have noticed that
multi-view methods can well preserve the diverse characteristics of data.
Therefore, we try to introduce the multi-view deep neural network into the hash
learning field, and design an efficient and innovative retrieval model, which
has achieved a significant improvement in retrieval performance. In this paper,
we propose a supervised multi-view hash model which can enhance the multi-view
information through neural networks. This is a completely new hash learning
method that combines multi-view and deep learning methods. The proposed method
utilizes an effective view stability evaluation method to actively explore the
relationship among views, which will affect the optimization direction of the
entire network. We have also designed a variety of multi-data fusion methods in
the Hamming space to preserve the advantages of both convolution and
multi-view. In order to avoid excessive computing resources on the enhancement
procedure during retrieval, we set up a separate structure called memory
network which participates in training together. The proposed method is
systematically evaluated on the CIFAR-10, NUS-WIDE and MS-COCO datasets, and
the results show that our method significantly outperforms the state-of-the-art
single-view and multi-view hashing methods.
- Abstract(参考訳): ハッシュは、高次元特徴記述子を低次元のハミング空間を保存する類似性に埋め込むことにより、大規模データ空間における近接探索の効率的な方法である。
しかし,バイナリコードによる大規模高速検索では,従来の検索手法に比べて検索精度がある程度低下している。
マルチビュー手法はデータの多様な特性をよく保存できることに気づきました。
そこで我々は,多視点深層ニューラルネットワークをハッシュ学習分野に導入し,検索性能を大幅に向上した効率的かつ革新的な検索モデルの設計を試みる。
本稿では,ニューラルネットワークによるマルチビュー情報の強化が可能な教師付きマルチビューハッシュモデルを提案する。
これは、マルチビューとディープラーニングを組み合わせた全く新しいハッシュ学習手法である。
提案手法は,効率的なビュー安定性評価手法を用いて,ネットワーク全体の最適化方向に影響を与えるビュー間の関係を積極的に探索する。
また,畳み込みとマルチビューの両方の利点を保ちつつ,ハミング空間における様々なマルチデータ融合手法を考案した。
検索中の強化手順における過剰な計算リソースを回避するため,学習に参加するメモリネットワークという別の構造を構築した。
提案手法はcifar-10,nus-wideおよびms-cocoデータセット上で体系的に評価され,本手法が最先端のシングルビューおよびマルチビューハッシュ法を著しく上回っていることを示す。
関連論文リスト
- Fast and Scalable Semi-Supervised Learning for Multi-View Subspace Clustering [13.638434337947302]
FSSMSCは、既存のアプローチで一般的に見られる高い計算複雑性に対する新しいソリューションである。
この手法は、各データポイントを選択されたランドマークの疎線型結合として表現し、すべてのビューにまたがるコンセンサスアンカーグラフを生成する。
FSSMSCの有効性と効率は、様々なスケールの複数のベンチマークデータセットに対する広範な実験を通して検証される。
論文 参考訳(メタデータ) (2024-08-11T06:54:00Z) - Scalable Multi-view Clustering via Explicit Kernel Features Maps [20.610589722626074]
マルチビュー学習に対する意識の高まりは、現実世界のアプリケーションにおける複数のビューの増加によるものだ。
優れたクラスタリング性能を維持しつつ,計算負担を軽減するため,カーネル特徴マップを活用した効率的な最適化手法を提案する。
我々は,最先端のマルチビューサブスペースクラスタリング手法や属性ネットワークのマルチビューアプローチに対して,アルゴリズムの性能を評価するために,様々な規模の実世界のベンチマークネットワーク上で広範囲に実験を行った。
論文 参考訳(メタデータ) (2024-02-07T12:35:31Z) - Deep Metric Multi-View Hashing for Multimedia Retrieval [3.539519688102545]
本稿では,これらの問題に対処するため,DMMVH法を提案する。
MIR-Flickr25K, MS COCO, NUS-WIDEでは, 現在の最先端手法よりも大きなマージンで優れていた。
論文 参考訳(メタデータ) (2023-04-13T09:25:35Z) - CoopHash: Cooperative Learning of Multipurpose Descriptor and Contrastive Pair Generator via Variational MCMC Teaching for Supervised Image Hashing [42.67510119856105]
GAN(Generative Adversarial Networks)のような生成モデルは、画像ハッシュモデルで合成データを生成することができる。
GANは訓練が難しいため、ハッシュアプローチが生成モデルとハッシュ関数を共同で訓練するのを防ぐことができる。
本稿では,エネルギーをベースとした協調学習に基づく新しい協調ハッシュネットワークを提案する。
論文 参考訳(メタデータ) (2022-10-09T15:42:36Z) - Attentive Multi-View Deep Subspace Clustering Net [4.3386084277869505]
我々は,AMVDSN(Attentive Multi-View Deep Subspace Nets)を提案する。
提案手法は,コンセンサス情報とビュー固有情報の両方を明示的に考慮した有意な潜在表現を求める。
7つの実世界のデータセットに対する実験結果から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2021-12-23T12:57:26Z) - Manifold Regularized Dynamic Network Pruning [102.24146031250034]
本稿では,全インスタンスの多様体情報をプルーンドネットワークの空間に埋め込むことにより,冗長フィルタを動的に除去する新しいパラダイムを提案する。
提案手法の有効性をいくつかのベンチマークで検証し,精度と計算コストの両面で優れた性能を示す。
論文 参考訳(メタデータ) (2021-03-10T03:59:03Z) - Decoupled and Memory-Reinforced Networks: Towards Effective Feature
Learning for One-Step Person Search [65.51181219410763]
歩行者検出と識別サブタスクを1つのネットワークで処理するワンステップ方式を開発しました。
現在のワンステップアプローチには2つの大きな課題があります。
本稿では,これらの問題を解決するために,分離メモリ強化ネットワーク(DMRNet)を提案する。
論文 参考訳(メタデータ) (2021-02-22T06:19:45Z) - CIMON: Towards High-quality Hash Codes [63.37321228830102]
我々はtextbfComprehensive stextbfImilarity textbfMining と ctextbfOnsistency leartextbfNing (CIMON) という新しい手法を提案する。
まず、グローバルな洗練と類似度統計分布を用いて、信頼性とスムーズなガイダンスを得る。第二に、意味的整合性学習とコントラスト的整合性学習の両方を導入して、乱不変と差別的ハッシュコードの両方を導出する。
論文 参考訳(メタデータ) (2020-10-15T14:47:14Z) - Unsupervised Deep Cross-modality Spectral Hashing [65.3842441716661]
このフレームワークは、最適化をバイナリ最適化とハッシュ関数学習に分離する2段階のハッシュアプローチである。
本稿では,単一モダリティと二項相互モダリティを同時に学習するスペクトル埋め込みに基づく新しいアルゴリズムを提案する。
我々は、画像に強力なCNNを活用し、テキストモダリティを学ぶためのCNNベースのディープアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-08-01T09:20:11Z) - Unsupervised Learning of Visual Features by Contrasting Cluster
Assignments [57.33699905852397]
ペア比較の計算を必要とせず,コントラスト的手法を生かしたオンラインアルゴリズムSwaVを提案する。
本手法では,クラスタ割り当て間の一貫性を保ちながら,同時にデータをクラスタ化する。
我々の方法は大規模で小さなバッチで訓練でき、無制限のデータにスケールできる。
論文 参考訳(メタデータ) (2020-06-17T14:00:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。