論文の概要: Cross-modal Zero-shot Hashing by Label Attributes Embedding
- arxiv url: http://arxiv.org/abs/2111.04080v1
- Date: Sun, 7 Nov 2021 13:19:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-10 05:42:20.083588
- Title: Cross-modal Zero-shot Hashing by Label Attributes Embedding
- Title(参考訳): ラベル属性埋め込みによるクロスモーダルゼロショットハッシュ
- Authors: Runmin Wang, Guoxian Yu, Lei Liu, Lizhen Cui, Carlotta Domeniconi,
Xiangliang Zhang
- Abstract要約: クロスモーダルハッシュ (CMH) は, 近接探索において最も有望な手法の1つである。
この問題に対処する最近の取り組みは、ラベル属性を使用して、見知らぬクラスから見つからないクラスに知識を移すことに重点を置いている。
LAEH (Label Attributes Embedding for zero-shot cross-modal Hashing) というアプローチを導入する。
- 参考スコア(独自算出の注目度): 47.53086581578164
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cross-modal hashing (CMH) is one of the most promising methods in cross-modal
approximate nearest neighbor search. Most CMH solutions ideally assume the
labels of training and testing set are identical. However, the assumption is
often violated, causing a zero-shot CMH problem. Recent efforts to address this
issue focus on transferring knowledge from the seen classes to the unseen ones
using label attributes. However, the attributes are isolated from the features
of multi-modal data. To reduce the information gap, we introduce an approach
called LAEH (Label Attributes Embedding for zero-shot cross-modal Hashing).
LAEH first gets the initial semantic attribute vectors of labels by word2vec
model and then uses a transformation network to transform them into a common
subspace. Next, it leverages the hash vectors and the feature similarity matrix
to guide the feature extraction network of different modalities. At the same
time, LAEH uses the attribute similarity as the supplement of label similarity
to rectify the label embedding and common subspace. Experiments show that LAEH
outperforms related representative zero-shot and cross-modal hashing methods.
- Abstract(参考訳): クロスモーダルハッシュ (CMH) は, 近接探索において最も有望な手法の1つである。
ほとんどのCMHソリューションは理想的には、トレーニングとテストセットのラベルが同一であると仮定する。
しかし、この仮定はしばしば違反し、ゼロショットCMH問題を引き起こす。
この問題に対処する最近の取り組みは、参照されるクラスからラベル属性を使用して見えないクラスへの知識の転送に焦点を当てている。
しかし、属性はマルチモーダルデータの特徴から分離されている。
情報ギャップを減らすため、laeh(ゼロショットクロスモーダルハッシュのためのラベル属性埋め込み)と呼ばれるアプローチを導入する。
LAEHはまずWord2vecモデルでラベルの最初の意味属性ベクトルを取得し、それから変換ネットワークを使用してそれらを共通の部分空間に変換する。
次に、ハッシュベクトルと特徴類似性行列を利用して、異なるモダリティの特徴抽出ネットワークを誘導する。
同時に、LAEHはラベルの類似性を補足として属性類似性を使用し、ラベル埋め込みと共通部分空間の修正を行う。
LAEHは関連するゼロショット法やクロスモーダルハッシュ法よりも優れていた。
関連論文リスト
- Complementary to Multiple Labels: A Correlation-Aware Correction
Approach [65.59584909436259]
理論上, マルチクラスCLLにおける遷移行列が, 複数ラベルの場合どのように歪むかを示す。
候補ラベルから遷移行列を推定する2段階の手法を提案する。
論文 参考訳(メタデータ) (2023-02-25T04:48:48Z) - Unsupervised Hashing with Similarity Distribution Calibration [127.34239817201549]
教師なしハッシュ法は、特徴空間内のデータポイント間の類似性をバイナリハッシュコードにマッピングすることで保存することを目的としている。
これらの方法は、連続的な特徴空間におけるデータポイント間の類似性が離散的なハッシュコード空間に保存されないという事実をしばしば見落としている。
類似性範囲はコードの長さによって制限され、類似性崩壊と呼ばれる問題を引き起こす可能性がある。
本稿では,この問題を緩和する新しい類似度分布法を提案する。
論文 参考訳(メタデータ) (2023-02-15T14:06:39Z) - Prototype-Based Layered Federated Cross-Modal Hashing [14.844848099134648]
本稿では,プロトタイプをベースとした層状層状クロスモーダルハッシュ法を提案する。
具体的には、サーバ上のインスタンスとクラス間の類似性を学ぶためにプロトタイプが導入された。
パーソナライズされたフェデレーション学習を実現するために、ハイパーネットワークがサーバ上に展開され、異なるレイヤのローカルモデルの重みを動的に更新する。
論文 参考訳(メタデータ) (2022-10-27T15:11:12Z) - Asymmetric Scalable Cross-modal Hashing [51.309905690367835]
クロスモーダルハッシュは、大規模なマルチメディア検索問題を解決する方法として成功している。
これらの問題に対処する新しい非対称スケーラブルクロスモーダルハッシュ(ASCMH)を提案する。
我々のASCMHは、最先端のクロスモーダルハッシュ法よりも精度と効率の点で優れています。
論文 参考訳(メタデータ) (2022-07-26T04:38:47Z) - Group-aware Label Transfer for Domain Adaptive Person Re-identification [179.816105255584]
Unsupervised Adaptive Domain (UDA) Person Re-identification (ReID) は、ラベル付きソースドメインデータセットで訓練されたモデルを、さらなるアノテーションなしでターゲットドメインデータセットに適応することを目的としている。
最も成功したUDA-ReIDアプローチは、クラスタリングに基づく擬似ラベル予測と表現学習を組み合わせて、2つのステップを交互に実行する。
疑似ラベル予測と表現学習のオンラインインタラクションと相互促進を可能にするグループ認識ラベル転送(GLT)アルゴリズムを提案します。
論文 参考訳(メタデータ) (2021-03-23T07:57:39Z) - Rank-Consistency Deep Hashing for Scalable Multi-Label Image Search [90.30623718137244]
スケーラブルなマルチラベル画像検索のための新しいディープハッシュ法を提案する。
2つの空間の類似性順序を整列するために、新しい階数整合性目的を適用した。
強力な損失関数は、意味的類似性とハミング距離が一致しないサンプルをペナルティ化するように設計されている。
論文 参考訳(メタデータ) (2021-02-02T13:46:58Z) - Deep Cross-modal Hashing via Margin-dynamic-softmax Loss [39.663995702994725]
We propose a novel cross-modal hashing, called Deep cross-modal hashing via textitMargin-dynamic-softmax Loss (DCHML)。
まず、DCHMLはプロキシハッシュネットワークをトレーニングし、データセットの各カテゴリ情報をセマンティック識別ハッシュコードに変換する。
次に、モダリティ固有のハッシュネットワークのトレーニングプロセスを監督するデータポイント間の類似性を定義することなく、新しいテクスティマージン-ダイナミック-ソフトマックス損失を提案する。
論文 参考訳(メタデータ) (2020-11-06T16:02:35Z) - Self-Supervised Bernoulli Autoencoders for Semi-Supervised Hashing [1.8899300124593648]
本稿では,変分オートエンコーダに基づくハッシュ手法のロバスト性と,監督の欠如について検討する。
本稿では,モデルがラベル分布予測を用いて一対の目的を実現する新しい監視手法を提案する。
実験の結果,いずれの手法もハッシュコードの品質を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-07-17T07:47:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。