論文の概要: Deep Learning to Ternary Hash Codes by Continuation
- arxiv url: http://arxiv.org/abs/2107.07987v1
- Date: Fri, 16 Jul 2021 16:02:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-19 14:38:06.652767
- Title: Deep Learning to Ternary Hash Codes by Continuation
- Title(参考訳): 継続による3次ハッシュコードの深層学習
- Authors: Mingrui Chen, Weiyu Li, Weizhi Lu
- Abstract要約: 本稿では,スムーズな関数をネットワークに付加することで,特徴をコードと共同で学習することを提案する。
実験により、生成した符号は、実際に高い精度で取得できることが示されている。
- 参考スコア(独自算出の注目度): 8.920717493647121
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, it has been observed that {0,1,-1}-ternary codes which are simply
generated from deep features by hard thresholding, tend to outperform
{-1,1}-binary codes in image retrieval. To obtain better ternary codes, we for
the first time propose to jointly learn the features with the codes by
appending a smoothed function to the networks. During training, the function
could evolve into a non-smoothed ternary function by a continuation method. The
method circumvents the difficulty of directly training discrete functions and
reduces the quantization errors of ternary codes. Experiments show that the
generated codes indeed could achieve higher retrieval accuracy.
- Abstract(参考訳): 近年, ハードしきい値による深部特徴から生成した {0,1,-1}-三進符号は, 画像検索において {-1,1}-二進符号より優れていることが観察されている。
より優れた3次符号を得るため,ネットワークにスムーズな関数を付加することにより,コードと機能を共同で学習する提案を行った。
訓練中、関数は継続法によって非スムース三元関数へと進化する。
この方法は、離散関数を直接訓練することの難しさを回避し、3次符号の量子化誤差を低減する。
実験の結果,生成した符号は高い精度で検索できることがわかった。
関連論文リスト
- Factor Graph Optimization of Error-Correcting Codes for Belief Propagation Decoding [62.25533750469467]
低密度パリティ・チェック (LDPC) コードは、他の種類のコードに対していくつかの利点がある。
提案手法は,既存の人気符号の復号性能を桁違いに向上させる。
論文 参考訳(メタデータ) (2024-06-09T12:08:56Z) - Learning Linear Block Error Correction Codes [62.25533750469467]
本稿では,バイナリ線形ブロック符号の統一エンコーダデコーダトレーニングを初めて提案する。
また,コード勾配の効率的なバックプロパゲーションのために,自己注意マスキングを行うトランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2024-05-07T06:47:12Z) - Interpreting Training Aspects of Deep-Learned Error-Correcting Codes [0.0]
深層学習誤り訂正符号の学習過程を解釈するツールの開発について検討する。
全てのツールはTurboAEでデモされているが、他の深層学習の前方誤り訂正コードに適用できる。
論文 参考訳(メタデータ) (2023-05-07T17:53:31Z) - Soft-Labeled Contrastive Pre-training for Function-level Code
Representation [127.71430696347174]
textbfSoft-labeled contrastive pre-training framework with two positive sample construction method。
大規模コードコーパスにおけるコード間の関連性を考慮すると、ソフトラベル付きコントラスト付き事前学習は、きめ細かいソフトラベルを得ることができる。
SCodeRは、7つのデータセットで4つのコード関連タスクに対して、最先端のパフォーマンスを新たに達成する。
論文 参考訳(メタデータ) (2022-10-18T05:17:37Z) - Enhancing Semantic Code Search with Multimodal Contrastive Learning and
Soft Data Augmentation [50.14232079160476]
コード検索のためのマルチモーダルコントラスト学習とソフトデータ拡張を用いた新しい手法を提案する。
我々は,6つのプログラミング言語を用いた大規模データセットにおけるアプローチの有効性を評価するために,広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-04-07T08:49:27Z) - LLC: Accurate, Multi-purpose Learnt Low-dimensional Binary Codes [55.32790803903619]
本稿では,クラスだけでなくインスタンスの低次元バイナリコード(LLC)を学習するための新しい手法を提案する。
アノテーション付き属性やラベルメタデータなど,副作用は一切不要です。
学習したコードは、クラスに対して直感的な分類法を発見することによって、データの中で本質的に重要な特徴をキャプチャすることを示した。
論文 参考訳(メタデータ) (2021-06-02T21:57:52Z) - Shuffle and Learn: Minimizing Mutual Information for Unsupervised
Hashing [4.518427368603235]
教師なしバイナリ表現は、アノテーションなしで高速なデータ検索を可能にする。
バイナリ空間における衝突は、高性能な教師なしハッシュの主要な障壁の1つである。
Shuffle and Learnと呼ばれる新しい緩和法は、教師なしハッシュにおけるコード競合に対処するために提案されている。
論文 参考訳(メタデータ) (2020-11-20T07:14:55Z) - Auto-Encoding Twin-Bottleneck Hashing [141.5378966676885]
本稿では,効率よく適応的なコード駆動グラフを提案する。
自動エンコーダのコンテキストでデコードすることで更新される。
ベンチマークデータセットの実験は、最先端のハッシュ手法よりもフレームワークの方が優れていることを明らかに示しています。
論文 参考訳(メタデータ) (2020-02-27T05:58:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。