論文の概要: Auto-Encoding Twin-Bottleneck Hashing
- arxiv url: http://arxiv.org/abs/2002.11930v2
- Date: Mon, 16 Mar 2020 09:14:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 07:56:40.786976
- Title: Auto-Encoding Twin-Bottleneck Hashing
- Title(参考訳): 自動エンコードツインボトルネックハッシュ
- Authors: Yuming Shen, Jie Qin, Jiaxin Chen, Mengyang Yu, Li Liu, Fan Zhu, Fumin
Shen, Ling Shao
- Abstract要約: 本稿では,効率よく適応的なコード駆動グラフを提案する。
自動エンコーダのコンテキストでデコードすることで更新される。
ベンチマークデータセットの実験は、最先端のハッシュ手法よりもフレームワークの方が優れていることを明らかに示しています。
- 参考スコア(独自算出の注目度): 141.5378966676885
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conventional unsupervised hashing methods usually take advantage of
similarity graphs, which are either pre-computed in the high-dimensional space
or obtained from random anchor points. On the one hand, existing methods
uncouple the procedures of hash function learning and graph construction. On
the other hand, graphs empirically built upon original data could introduce
biased prior knowledge of data relevance, leading to sub-optimal retrieval
performance. In this paper, we tackle the above problems by proposing an
efficient and adaptive code-driven graph, which is updated by decoding in the
context of an auto-encoder. Specifically, we introduce into our framework twin
bottlenecks (i.e., latent variables) that exchange crucial information
collaboratively. One bottleneck (i.e., binary codes) conveys the high-level
intrinsic data structure captured by the code-driven graph to the other (i.e.,
continuous variables for low-level detail information), which in turn
propagates the updated network feedback for the encoder to learn more
discriminative binary codes. The auto-encoding learning objective literally
rewards the code-driven graph to learn an optimal encoder. Moreover, the
proposed model can be simply optimized by gradient descent without violating
the binary constraints. Experiments on benchmarked datasets clearly show the
superiority of our framework over the state-of-the-art hashing methods. Our
source code can be found at https://github.com/ymcidence/TBH.
- Abstract(参考訳): 従来の教師なしハッシュ法は、通常、高次元空間で事前計算されるか、ランダムアンカー点から得られる類似性グラフを利用する。
一方,既存手法はハッシュ関数学習とグラフ構築の手順を分離する。
一方、原データ上に実証的に構築されたグラフは、データ関連性に関するバイアス付き事前知識を導入し、準最適検索性能をもたらす可能性がある。
本稿では,自動エンコーダのコンテキストにおけるデコードによって更新される,効率的で適応的なコード駆動グラフを提案することで,上記の問題に対処する。
具体的には、重要な情報を協調的に交換するフレームワークツインボトルネック(潜伏変数)を紹介します。
1つのボトルネック(すなわちバイナリコード)は、コード駆動グラフがキャプチャした高レベルの固有データ構造(すなわち、低レベルの詳細情報のための連続変数)を他方に伝達し、エンコーダがより識別可能なバイナリコードを学ぶために、更新されたネットワークフィードバックを伝播させる。
自動エンコーディング学習目標は、コード駆動グラフに文字通り報酬を与え、最適なエンコーダを学習する。
さらに, 2値制約に違反することなく, 勾配勾配による最適化が可能である。
ベンチマークデータセットに関する実験は、最先端のハッシュメソッドよりも、フレームワークの優位性を明確に示しています。
ソースコードはhttps://github.com/ymcidence/TBH.com/。
関連論文リスト
- Deep Manifold Graph Auto-Encoder for Attributed Graph Embedding [51.75091298017941]
本稿では,属性付きグラフデータに対する新しいDeep Manifold (Variational) Graph Auto-Encoder (DMVGAE/DMGAE)を提案する。
提案手法は,最先端のベースラインアルゴリズムを,一般的なデータセット間でのダウンストリームタスクの差を大きく越える。
論文 参考訳(メタデータ) (2024-01-12T17:57:07Z) - Supervised Auto-Encoding Twin-Bottleneck Hashing [5.653113092257149]
Twin-Bottleneck Hashingはグラフを動的に構築する手法である。
本研究では,ラベル情報を組み込むことで,オリジナルモデルを教師付きディープハッシュネットワークに一般化する。
論文 参考訳(メタデータ) (2023-06-19T18:50:02Z) - Graph-Collaborated Auto-Encoder Hashing for Multi-view Binary Clustering [11.082316688429641]
マルチビューバイナリクラスタリングのための自動エンコーダに基づくハッシュアルゴリズムを提案する。
具体的には,低ランク制約を用いた多視点親和性グラフ学習モデルを提案する。
また、複数の親和性グラフを協調して協調するエンコーダ・デコーダのパラダイムを設計し、統一されたバイナリコードを効果的に学習する。
論文 参考訳(メタデータ) (2023-01-06T12:43:13Z) - GraphLearner: Graph Node Clustering with Fully Learnable Augmentation [76.63963385662426]
Contrastive Deep Graph Clustering (CDGC)は、異なるクラスタにノードをグループ化するために、コントラスト学習のパワーを活用する。
我々は、GraphLearnerと呼ばれる、完全学習可能な拡張を備えたグラフノードクラスタリングを提案する。
学習可能な拡張器を導入し、CDGCのための高品質でタスク固有の拡張サンプルを生成する。
論文 参考訳(メタデータ) (2022-12-07T10:19:39Z) - Enhancing Semantic Code Search with Multimodal Contrastive Learning and
Soft Data Augmentation [50.14232079160476]
コード検索のためのマルチモーダルコントラスト学習とソフトデータ拡張を用いた新しい手法を提案する。
我々は,6つのプログラミング言語を用いた大規模データセットにおけるアプローチの有効性を評価するために,広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-04-07T08:49:27Z) - Rate Coding or Direct Coding: Which One is Better for Accurate, Robust,
and Energy-efficient Spiking Neural Networks? [4.872468969809081]
スパイキングニューラルネットワーク(SNN)は画像分類タスクに重点を置いているため、画像を時間的バイナリスパイクに変換するための様々なコーディング技術が提案されている。
これらのうち、レートコーディングとダイレクトコーディングは、実用的なSNNシステムを構築するための候補として期待されている。
我々は3つの視点から2つの符号化を包括的に分析する。
論文 参考訳(メタデータ) (2022-01-31T16:18:07Z) - Shuffle and Learn: Minimizing Mutual Information for Unsupervised
Hashing [4.518427368603235]
教師なしバイナリ表現は、アノテーションなしで高速なデータ検索を可能にする。
バイナリ空間における衝突は、高性能な教師なしハッシュの主要な障壁の1つである。
Shuffle and Learnと呼ばれる新しい緩和法は、教師なしハッシュにおけるコード競合に対処するために提案されている。
論文 参考訳(メタデータ) (2020-11-20T07:14:55Z) - Self-Supervised Bernoulli Autoencoders for Semi-Supervised Hashing [1.8899300124593648]
本稿では,変分オートエンコーダに基づくハッシュ手法のロバスト性と,監督の欠如について検討する。
本稿では,モデルがラベル分布予測を用いて一対の目的を実現する新しい監視手法を提案する。
実験の結果,いずれの手法もハッシュコードの品質を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-07-17T07:47:10Z) - Heuristic Semi-Supervised Learning for Graph Generation Inspired by
Electoral College [80.67842220664231]
本稿では,新たなノードやエッジを自動的に拡張して,高密度サブグラフ内のラベル類似性を向上する,新しい前処理手法であるElectoral College(ELCO)を提案する。
テストされたすべての設定において、我々の手法はベースモデルの平均スコアを4.7ポイントの広いマージンで引き上げるとともに、常に最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2020-06-10T14:48:48Z) - Learning to Hash with Graph Neural Networks for Recommender Systems [103.82479899868191]
グラフ表現学習は、大規模に高品質な候補探索をサポートすることに多くの注目を集めている。
ユーザ・イテム相互作用ネットワークにおけるオブジェクトの埋め込みベクトルの学習の有効性にもかかわらず、連続的な埋め込み空間におけるユーザの好みを推測する計算コストは膨大である。
連続的かつ離散的なコードとを協調的に学習するための,単純かつ効果的な離散表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-04T06:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。