論文の概要: Adaptive von Mises-Fisher Likelihood Loss for Supervised Deep Time Series Hashing
- arxiv url: http://arxiv.org/abs/2509.19625v1
- Date: Tue, 23 Sep 2025 22:34:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.627445
- Title: Adaptive von Mises-Fisher Likelihood Loss for Supervised Deep Time Series Hashing
- Title(参考訳): アダプティブvon Mises-Fisher を用いた深部連続ハッシュ法
- Authors: Juan Manuel Perez, Kevin Garcia, Brooklyn Berry, Dongjin Song, Yifeng Gao,
- Abstract要約: 近年,深層学習に基づくハッシュ法は,意味的意味に基づく時系列の索引付けに有効であることが証明されている。
本稿では,情報損失を低減するため,von Mises-Fisherハッシュ損失を提案する。
実験の結果,本手法は既存のベースラインよりも優れていた。
- 参考スコア(独自算出の注目度): 12.81173186417505
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Indexing time series by creating compact binary representations is a fundamental task in time series data mining. Recently, deep learning-based hashing methods have proven effective for indexing time series based on semantic meaning rather than just raw similarity. The purpose of deep hashing is to map samples with the same semantic meaning to identical binary hash codes, enabling more efficient search and retrieval. Unlike other supervised representation learning methods, supervised deep hashing requires a discretization step to convert real-valued representations into binary codes, but this can induce significant information loss. In this paper, we propose a von Mises-Fisher (vMF) hashing loss. The proposed deep hashing model maps data to an M-dimensional hyperspherical space to effectively reduce information loss and models each data class as points following distinct vMF distributions. The designed loss aims to maximize the separation between each modeled vMF distribution to provide a better way to maximize the margin between each semantically different data sample. Experimental results show that our method outperforms existing baselines. The implementation is publicly available at https://github.com/jmpq97/vmf-hashing
- Abstract(参考訳): コンパクトなバイナリ表現を作成することで時系列をインデックス化することは、時系列データマイニングの基本的な課題である。
近年,深層学習に基づくハッシュ法は,意味的意味に基づく時系列の索引付けに有効であることが証明されている。
ディープハッシュの目的は、同じ意味を持つサンプルを同一のバイナリハッシュコードにマッピングすることで、より効率的な検索と検索を可能にすることである。
他の教師付き表現学習法とは異なり、教師付き深層ハッシュは、実数値表現をバイナリコードに変換するための離散化ステップを必要とするが、これは重大な情報損失を引き起こす可能性がある。
本稿では,von Mises-Fisher(vMF)ハッシュ損失を提案する。
提案したディープハッシュモデルでは,データをM次元超球面空間にマッピングすることで,情報損失を効果的に低減し,各データクラスを異なるvMF分布に従う点としてモデル化する。
設計された損失は、各モデル化されたvMF分布間の分離を最大化し、各意味的に異なるデータサンプル間のマージンを最大化する方法を提供することを目的としている。
実験の結果,本手法は既存のベースラインよりも優れていた。
実装はhttps://github.com/jmpq97/vmf-hashingで公開されている。
関連論文リスト
- Deep Hashing with Semantic Hash Centers for Image Retrieval [15.771584515999283]
本稿では,従来のハッシュセンタの概念に基づくセマンティックハッシュセンタの概念を紹介する。
データ依存的類似性計算を用いてクラス間の意味的類似性を識別する分類ネットワークを開発する。
次に, セマンティック・ハッシュ・センターを生成するアルゴリズムを導入し, セマンティック・ハッシュ・コードに過度に類似しないよう, セマンティック・ハッシュ・センター間の最小距離を保ちながら意味的関連性を維持する。
論文 参考訳(メタデータ) (2025-07-11T08:22:27Z) - FDDH: Fast Discriminative Discrete Hashing for Large-Scale Cross-Modal
Retrieval [41.125141897096874]
クロスモーダルハッシュはその有効性と効率性に好まれる。
既存のほとんどのメソッドは、ハッシュコードを学ぶ際に意味情報の識別力を十分に利用していない。
大規模クロスモーダル検索のためのFDDH(Fast Discriminative Discrete Hashing)手法を提案する。
論文 参考訳(メタデータ) (2021-05-15T03:53:48Z) - Unsupervised Multi-Index Semantic Hashing [23.169142004594434]
マルチインデックスハッシュに最適化することで,効率的かつ高効率なハッシュコードを学習する教師なしハッシュモデルを提案する。
文書類似度検索のタスクにおいて、MISHと最先端のセマンティックハッシュベースラインを実験的に比較する。
マルチインデックスハッシュは、線形スキャンと比較してベースラインの効率も向上しますが、MISHよりも33%遅くなっています。
論文 参考訳(メタデータ) (2021-03-26T13:33:48Z) - Deep Cross-modal Hashing via Margin-dynamic-softmax Loss [39.663995702994725]
We propose a novel cross-modal hashing, called Deep cross-modal hashing via textitMargin-dynamic-softmax Loss (DCHML)。
まず、DCHMLはプロキシハッシュネットワークをトレーニングし、データセットの各カテゴリ情報をセマンティック識別ハッシュコードに変換する。
次に、モダリティ固有のハッシュネットワークのトレーニングプロセスを監督するデータポイント間の類似性を定義することなく、新しいテクスティマージン-ダイナミック-ソフトマックス損失を提案する。
論文 参考訳(メタデータ) (2020-11-06T16:02:35Z) - CIMON: Towards High-quality Hash Codes [63.37321228830102]
我々はtextbfComprehensive stextbfImilarity textbfMining と ctextbfOnsistency leartextbfNing (CIMON) という新しい手法を提案する。
まず、グローバルな洗練と類似度統計分布を用いて、信頼性とスムーズなガイダンスを得る。第二に、意味的整合性学習とコントラスト的整合性学習の両方を導入して、乱不変と差別的ハッシュコードの両方を導出する。
論文 参考訳(メタデータ) (2020-10-15T14:47:14Z) - Deep Hashing with Hash-Consistent Large Margin Proxy Embeddings [65.36757931982469]
画像ハッシュコードは、分類または検索のために訓練された畳み込みニューラルネットワーク(CNN)の埋め込みをバイナライズすることによって生成される。
この曖昧さを解消するために、固定されたプロキシ(CNN分類層の重み)の使用が提案されている。
得られたHCLMプロキシはハッシュ単位の飽和を促進することが示され、小さな二項化誤差が保証される。
論文 参考訳(メタデータ) (2020-07-27T23:47:43Z) - Generative Semantic Hashing Enhanced via Boltzmann Machines [61.688380278649056]
既存の生成ハッシュ法は、主に後部分布の分解形式を仮定する。
本稿では,ボルツマンマシンの分布を検索後部として利用することを提案する。
ハッシュコード内の異なるビット間の相関関係を効果的にモデル化することにより、我々のモデルは大幅な性能向上を達成できることを示す。
論文 参考訳(メタデータ) (2020-06-16T01:23:39Z) - Pairwise Supervised Hashing with Bernoulli Variational Auto-Encoder and
Self-Control Gradient Estimator [62.26981903551382]
バイナリ潜在変数を持つ変分自動エンコーダ(VAE)は、文書検索の精度の観点から最先端のパフォーマンスを提供する。
本稿では、クラス内類似度とクラス間類似度に報いるために、個別潜伏型VAEを用いたペアワイズ損失関数を提案する。
この新しいセマンティックハッシュフレームワークは、最先端技術よりも優れたパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-05-21T06:11:33Z) - Reinforcing Short-Length Hashing [61.75883795807109]
既存の手法は、非常に短いハッシュコードを用いた検索性能が劣っている。
本研究では, 短寿命ハッシュ(RSLH)を改良する新しい手法を提案する。
本稿では,ハッシュ表現とセマンティックラベルの相互再構成を行い,セマンティック情報を保存する。
3つの大規模画像ベンチマークの実験は、様々な短いハッシュシナリオ下でのRSLHの優れた性能を示す。
論文 参考訳(メタデータ) (2020-04-24T02:23:52Z) - A Survey on Deep Hashing Methods [52.326472103233854]
最寄りの検索は、データベースからクエリまでの距離が最小のサンプルを取得することを目的としている。
ディープラーニングの発展により、ディープハッシュ法は従来の方法よりも多くの利点を示す。
深い教師付きハッシュは、ペアワイズ法、ランキングベースの方法、ポイントワイズ法、量子化に分類される。
深い教師なしハッシュは、類似性再構築に基づく方法、擬似ラベルに基づく方法、予測自由な自己教師あり学習に基づく方法に分類される。
論文 参考訳(メタデータ) (2020-03-04T08:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。