論文の概要: Meta Cross-Modal Hashing on Long-Tailed Data
- arxiv url: http://arxiv.org/abs/2111.04086v1
- Date: Sun, 7 Nov 2021 13:31:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-10 05:30:11.904830
- Title: Meta Cross-Modal Hashing on Long-Tailed Data
- Title(参考訳): ロングテールデータに対するメタクロスモーダルハッシュ
- Authors: Runmin Wang, Guoxian Yu, Carlotta Domeniconi, Xiangliang Zhang
- Abstract要約: マルチモーダルデータの近接探索のために、クロスモーダルハッシュが広く研究されている。
本稿では,メタラーニングに基づくクロスモーダルハッシュ法を提案する。
長い尾を持つデータセットの実験では、MetaCMHは最先端の手法よりもはるかに優れたパフォーマンスを示している。
- 参考スコア(独自算出の注目度): 47.64367056699699
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Due to the advantage of reducing storage while speeding up query time on big
heterogeneous data, cross-modal hashing has been extensively studied for
approximate nearest neighbor search of multi-modal data. Most hashing methods
assume that training data is class-balanced.However, in practice, real world
data often have a long-tailed distribution. In this paper, we introduce a
meta-learning based cross-modal hashing method (MetaCMH) to handle long-tailed
data. Due to the lack of training samples in the tail classes, MetaCMH first
learns direct features from data in different modalities, and then introduces
an associative memory module to learn the memory features of samples of the
tail classes. It then combines the direct and memory features to obtain meta
features for each sample. For samples of the head classes of the long tail
distribution, the weight of the direct features is larger, because there are
enough training data to learn them well; while for rare classes, the weight of
the memory features is larger. Finally, MetaCMH uses a likelihood loss function
to preserve the similarity in different modalities and learns hash functions in
an end-to-end fashion. Experiments on long-tailed datasets show that MetaCMH
performs significantly better than state-of-the-art methods, especially on the
tail classes.
- Abstract(参考訳): 大規模な不均一なデータに対するクエリ時間を短縮しながらストレージを削減できる利点により、マルチモーダルデータの近接探索のために、クロスモーダルハッシュが広く研究されている。
ほとんどのハッシュ手法では、トレーニングデータはクラスバランスであると仮定しているが、実際には現実世界のデータはしばしばロングテール分布を持つ。
本稿では,ロングテールデータを扱うメタラーニングベースのクロスモーダルハッシュ手法(metacmh)を提案する。
テールクラスでのトレーニングサンプルの欠如により、metacmhはまず異なるモダリティのデータから直接的な特徴を学習し、その後、テールクラスのサンプルのメモリ特性を学習するための連想メモリモジュールを導入する。
次に、ダイレクトとメモリの機能を組み合わせて、各サンプルのメタ機能を得る。
ロングテール分布のヘッドクラスのサンプルでは、学習に十分なトレーニングデータがあるため、直接特徴の重みが大きくなるが、希少クラスではメモリ特徴の重みが大きくなる。
最後に、MetaCMHは確率損失関数を用いて異なるモードで類似性を保ち、エンドツーエンドでハッシュ関数を学習する。
ロングテールデータセットの実験では、metacmhは最先端のメソッド、特にテールクラスよりもかなり優れたパフォーマンスを示す。
関連論文リスト
- FREE: Faster and Better Data-Free Meta-Learning [77.90126669914324]
Data-Free Meta-Learning (DFML) は、トレーニング済みモデルのコレクションから、元のデータを必要としない知識を抽出することを目的としている。
i)事前訓練されたモデルからトレーニングタスクを迅速に回復するためのメタジェネレータ,(ii)新しい未知のタスクに一般化するためのメタラーナーを含む、より高速で優れたデータフリーなメタラーニングフレームワークを紹介する。
論文 参考訳(メタデータ) (2024-05-02T03:43:19Z) - Deep Lifelong Cross-modal Hashing [17.278818467305683]
本稿では,ハッシュ関数の再学習を繰り返すのではなく,生涯ハッシュ検索を実現するために,新しい生涯横断ハッシュを提案する。
具体的には、蓄積したすべてのデータを用いて新しいハッシュ関数を再学習する代わりに、インクリメンタルデータを直接訓練することで、ハッシュ関数を更新するための生涯学習戦略を設計する。
検索精度は20%以上で、新しいデータが連続してやってくると、ほぼ80%以上のトレーニング時間を短縮する。
論文 参考訳(メタデータ) (2023-04-26T07:56:22Z) - Long-tail Cross Modal Hashing [28.56122404774158]
我々は不均衡なマルチモーダルデータを扱うためにLtCMH(Long-tail CMH)を提案する。
LtCMHは、ロングテールデータセットの最先端ベースラインを著しく上回る。
論文 参考訳(メタデータ) (2022-11-28T09:18:08Z) - Memory-Guided Semantic Learning Network for Temporal Sentence Grounding [55.31041933103645]
本稿では,TSGタスクにおいて稀に出現しないコンテンツを学習し,記憶するメモリ拡張ネットワークを提案する。
MGSL-Netは、クロスモーダル・インターアクション・モジュール、メモリ拡張モジュール、異種アテンション・モジュールの3つの主要な部分で構成されている。
論文 参考訳(メタデータ) (2022-01-03T02:32:06Z) - MOON: Multi-Hash Codes Joint Learning for Cross-Media Retrieval [30.77157852327981]
クロスメディアハッシュ技術は高い計算効率と低ストレージコストで注目を集めている。
クロスメディア検索のための新しいMultiple hash cOdes jOint learNing法(MOON)を開発した。
論文 参考訳(メタデータ) (2021-08-17T14:47:47Z) - Memory-based Jitter: Improving Visual Recognition on Long-tailed Data
with Diversity In Memory [39.56214005885884]
メモリベースジッター(MBJ)と呼ばれるシンプルで信頼性の高い手法を導入する。
MBJは2つの基本的な視覚認識タスク、すなわち深部画像分類と深部メートル法学習に適用できる。
5つの長い尾の分類ベンチマークと2つの深いメートル法学習ベンチマークの実験は、大幅な改善を示している。
論文 参考訳(メタデータ) (2020-08-22T11:01:46Z) - Creating Something from Nothing: Unsupervised Knowledge Distillation for
Cross-Modal Hashing [132.22315429623575]
クロスモーダルハッシュ(CMH)は、特に視覚や言語において、異なるモーダルからのコンテンツを同じ空間にマッピングすることができる。
CMHには2つの主要なフレームワークがある。
本稿では,教師なし手法を用いて教師なし手法を導出する手法を提案する。
論文 参考訳(メタデータ) (2020-04-01T08:32:15Z) - Rethinking Class-Balanced Methods for Long-Tailed Visual Recognition
from a Domain Adaptation Perspective [98.70226503904402]
現実世界のオブジェクトの周波数は、しばしば電力法則に従い、長い尾のクラス分布を持つデータセット間のミスマッチを引き起こす。
メタラーニング手法を用いて,クラス条件分布の違いを明示的に推定し,古典的なクラスバランス学習を強化することを提案する。
論文 参考訳(メタデータ) (2020-03-24T11:28:42Z) - Incremental Meta-Learning via Indirect Discriminant Alignment [118.61152684795178]
メタ学習のメタ学習段階において,段階的な学習の概念を発達させる。
我々のアプローチは、完全なメタトレーニングセットでモデルをトレーニングするのと比べて、テスト時に好適に機能する。
論文 参考訳(メタデータ) (2020-02-11T01:39:12Z) - A Novel Incremental Cross-Modal Hashing Approach [21.99741793652628]
我々は「iCMH」と呼ばれる新しい漸進的クロスモーダルハッシュアルゴリズムを提案する。
提案手法は,ハッシュコードを学習し,ハッシュ関数を訓練する2つの段階からなる。
さまざまなクロスモーダルデータセットの実験と最先端のクロスモーダルアルゴリズムとの比較は、我々のアプローチの有用性を示している。
論文 参考訳(メタデータ) (2020-02-03T12:34:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。