論文の概要: Comprehensive Graph-conditional Similarity Preserving Network for
Unsupervised Cross-modal Hashing
- arxiv url: http://arxiv.org/abs/2012.13538v1
- Date: Fri, 25 Dec 2020 07:40:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-25 04:31:20.277005
- Title: Comprehensive Graph-conditional Similarity Preserving Network for
Unsupervised Cross-modal Hashing
- Title(参考訳): 教師なしクロスモーダルハッシュのための包括的グラフ条件類似性保存ネットワーク
- Authors: Jun Yu, Hao Zhou, Yibing Zhan, Dacheng Tao
- Abstract要約: 教師なしクロスモーダルハッシュ(UCMH)は近年ホットトピックとなっている。
本稿では,dgcpn(deep graph-neighbor coherence preservation network)を考案する。
DGCPNは3種類のデータ類似性を利用して、損失を保存する包括的な類似性を管理する。
- 参考スコア(独自算出の注目度): 97.44152794234405
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Unsupervised cross-modal hashing (UCMH) has become a hot topic recently.
Current UCMH focuses on exploring data similarities. However, current UCMH
methods calculate the similarity between two data, mainly relying on the two
data's cross-modal features. These methods suffer from inaccurate similarity
problems that result in a suboptimal retrieval Hamming space, because the
cross-modal features between the data are not sufficient to describe the
complex data relationships, such as situations where two data have different
feature representations but share the inherent concepts. In this paper, we
devise a deep graph-neighbor coherence preserving network (DGCPN).
Specifically, DGCPN stems from graph models and explores graph-neighbor
coherence by consolidating the information between data and their neighbors.
DGCPN regulates comprehensive similarity preserving losses by exploiting three
types of data similarities (i.e., the graph-neighbor coherence, the coexistent
similarity, and the intra- and inter-modality consistency) and designs a
half-real and half-binary optimization strategy to reduce the quantization
errors during hashing. Essentially, DGCPN addresses the inaccurate similarity
problem by exploring and exploiting the data's intrinsic relationships in a
graph. We conduct extensive experiments on three public UCMH datasets. The
experimental results demonstrate the superiority of DGCPN, e.g., by improving
the mean average precision from 0.722 to 0.751 on MIRFlickr-25K using 64-bit
hashing codes to retrieve texts from images. We will release the source code
package and the trained model on https://github.com/Atmegal/DGCPN.
- Abstract(参考訳): 教師なしクロスモーダルハッシュ(UCMH)が最近話題になっている。
現在のUCMHは、データの類似性を探求することに焦点を当てている。
しかし、現在のudmh法は2つのデータ間の類似度を計算し、主に2つのデータのクロスモーダルな特徴に依存する。
これらの手法は、2つのデータが異なる特徴表現を持つが固有の概念を共有するような複雑なデータ関係を記述するのに、データ間のクロスモーダルな特徴が十分ではないため、不正確な類似性の問題に悩まされる。
本稿では,dgcpn(deep graph-neighbor coherence preservation network)を考案する。
具体的には、DGCPNはグラフモデルから派生し、データと隣人の情報を統合することによってグラフ近傍のコヒーレンスを探索する。
DGCPNは3種類のデータ類似性(グラフ近傍のコヒーレンス、共存する類似性、およびモダリティ内およびモダリティ間の整合性)を活用し、半現実的および半バイナリ最適化戦略を設計し、ハッシュ中の量子化エラーを低減することで損失を抑える。
本質的には、DGCPNはグラフ内のデータ固有の関係を探索し、活用することによって、不正確な類似性問題に対処する。
3つの公開UCMHデータセットについて広範な実験を行った。
実験結果は,64ビットハッシュ符号を用いて画像からテキストを検索し,平均精度を0.722から0.751に向上させることにより,DGCPNの優位性を示す。
ソースコードパッケージとトレーニングされたモデルをhttps://github.com/Atmegal/DGCPN.comでリリースします。
関連論文リスト
- Supervised Auto-Encoding Twin-Bottleneck Hashing [5.653113092257149]
Twin-Bottleneck Hashingはグラフを動的に構築する手法である。
本研究では,ラベル情報を組み込むことで,オリジナルモデルを教師付きディープハッシュネットワークに一般化する。
論文 参考訳(メタデータ) (2023-06-19T18:50:02Z) - Okapi: Generalising Better by Making Statistical Matches Match [7.392460712829188]
オカピは、オンライン統計マッチングに基づく頑健な半教師あり学習のためのシンプルで効率的で汎用的な方法である。
提案手法では, 最寄りのマッチング手法を用いて, 整合性損失に対するクロスドメインビューを生成する。
経験的リスクの最小化を改善するために、余分な遅延のないデータを活用することは実際に可能であることを示す。
論文 参考訳(メタデータ) (2022-11-07T12:41:17Z) - Few-Shot Non-Parametric Learning with Deep Latent Variable Model [50.746273235463754]
遅延変数を用いた圧縮による非パラメトリック学習(NPC-LV)を提案する。
NPC-LVは、ラベルなしデータが多いがラベル付きデータはほとんどないデータセットの学習フレームワークである。
我々は,NPC-LVが低データ構造における画像分類における3つのデータセットの教師あり手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-23T09:35:03Z) - HL-Net: Heterophily Learning Network for Scene Graph Generation [90.2766568914452]
本稿では,シーングラフにおけるオブジェクト/リレーショナル間のホモフィリとヘテロフィリを探索する,新しいヘテロフィリズ学習ネットワーク(HL-Net)を提案する。
HL-Netは、適応的な再重み付け変換モジュールで、異なる層からの情報を適応的に統合し、オブジェクトのヘテロフィリとホモフィリの両方を利用する。
我々は、ビジュアルゲノム(VG)とオープンイメージ(OI)の2つの公開データセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-05-03T06:00:29Z) - Towards Similarity-Aware Time-Series Classification [51.2400839966489]
時系列データマイニングの基本課題である時系列分類(TSC)について検討する。
グラフニューラルネットワーク(GNN)を用いて類似情報をモデル化するフレームワークであるSimTSCを提案する。
論文 参考訳(メタデータ) (2022-01-05T02:14:57Z) - Knowledge Generation -- Variational Bayes on Knowledge Graphs [0.685316573653194]
この論文は、現実世界の知識グラフの表現に関するVari Auto-Encoder (VAE) の概念実証である。
生成グラフへのアプローチの成功に触発されて,本モデルである変分オートエンコーダ(rgvae)の能力を評価する。
RGVAEはリンク予測に基づいて評価される。
2つのFB15K-237およびWN18RRデータセットの平均相互ランク(MRR)スコアを比較します。
2次実験における潜伏空間について検討する:まず、2つの三重項の潜伏表現の間の線型、そして各三重項の探索
論文 参考訳(メタデータ) (2021-01-21T21:23:17Z) - DecAug: Augmenting HOI Detection via Decomposition [54.65572599920679]
現在のアルゴリズムでは、データセット内のトレーニングサンプルやカテゴリの不均衡が不足している。
本稿では,HOI検出のためのDECAugと呼ばれる効率的かつ効率的なデータ拡張手法を提案する。
実験の結果,V-COCOおよびHICODETデータセットの3.3mAPと1.6mAPの改善が得られた。
論文 参考訳(メタデータ) (2020-10-02T13:59:05Z) - Learning to hash with semantic similarity metrics and empirical KL
divergence [3.04585143845864]
ハッシュの学習は、大規模データベースからの近接探索を正確に、そして近似的に行うための効率的なパラダイムである。
バイナリハッシュコードは典型的には、CNNから出力特徴を丸め、イメージから抽出される。
i) 学習特徴の相対的なハッシュコード距離を目標値と一致するように促進する新規な損失関数により, (i) を克服する。
我々は、ネットワーク出力とバイナリターゲット分布のKL分散の微分可能な推定を通じて、(ii)に対処し、その結果、特徴がバイナリに丸められたときの情報損失を最小限に抑える。
論文 参考訳(メタデータ) (2020-05-11T08:20:26Z) - Dense Dilated Convolutions Merging Network for Land Cover Classification [8.932848548221532]
リモートセンシング画像のランドカバー分類は、限られた量の注釈付きデータのために難しい課題である。
本稿では,高密度拡張畳み込みネットワーク(DDCM-Net)と呼ばれる新しいアーキテクチャを提案する。
提案するDDCM-Netの有効性,堅牢性,柔軟性を,ISPRS Potsdam および Vaihingen データセット上で実証する。
論文 参考訳(メタデータ) (2020-03-09T10:31:38Z) - Learning to Hash with Graph Neural Networks for Recommender Systems [103.82479899868191]
グラフ表現学習は、大規模に高品質な候補探索をサポートすることに多くの注目を集めている。
ユーザ・イテム相互作用ネットワークにおけるオブジェクトの埋め込みベクトルの学習の有効性にもかかわらず、連続的な埋め込み空間におけるユーザの好みを推測する計算コストは膨大である。
連続的かつ離散的なコードとを協調的に学習するための,単純かつ効果的な離散表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-04T06:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。