論文の概要: ConceptHash: Interpretable Fine-Grained Hashing via Concept Discovery
- arxiv url: http://arxiv.org/abs/2406.08457v1
- Date: Wed, 12 Jun 2024 17:49:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-13 15:37:29.035512
- Title: ConceptHash: Interpretable Fine-Grained Hashing via Concept Discovery
- Title(参考訳): ConceptHash:概念発見による微粒化ハッシュの解釈
- Authors: Kam Woh Ng, Xiatian Zhu, Yi-Zhe Song, Tao Xiang,
- Abstract要約: ConceptHashは、サブコードレベルの解釈性を実現する新しい方法である。
ConceptHashでは、各サブコードは、オブジェクト部分のような人間の理解可能な概念に対応する。
学習したハッシュコードが、きめ細かいオブジェクトクラス内で識別可能であることを保証するために、言語ガイダンスを組み込んだ。
- 参考スコア(独自算出の注目度): 128.30514851911218
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing fine-grained hashing methods typically lack code interpretability as they compute hash code bits holistically using both global and local features. To address this limitation, we propose ConceptHash, a novel method that achieves sub-code level interpretability. In ConceptHash, each sub-code corresponds to a human-understandable concept, such as an object part, and these concepts are automatically discovered without human annotations. Specifically, we leverage a Vision Transformer architecture and introduce concept tokens as visual prompts, along with image patch tokens as model inputs. Each concept is then mapped to a specific sub-code at the model output, providing natural sub-code interpretability. To capture subtle visual differences among highly similar sub-categories (e.g., bird species), we incorporate language guidance to ensure that the learned hash codes are distinguishable within fine-grained object classes while maintaining semantic alignment. This approach allows us to develop hash codes that exhibit similarity within families of species while remaining distinct from species in other families. Extensive experiments on four fine-grained image retrieval benchmarks demonstrate that ConceptHash outperforms previous methods by a significant margin, offering unique sub-code interpretability as an additional benefit. Code at: https://github.com/kamwoh/concepthash.
- Abstract(参考訳): 既存のきめ細かいハッシュメソッドは、グローバル機能とローカル機能の両方を使ってハッシュコードビットを総括的に計算するので、コード解釈性に欠ける。
この制限に対処するために、サブコードレベルの解釈性を実現する新しい方法であるConceptHashを提案する。
ConceptHashでは、各サブコードはオブジェクト部分のような人間の理解可能な概念に対応しており、これらの概念は人間のアノテーションなしで自動的に発見される。
具体的には、Vision Transformerアーキテクチャを活用し、概念トークンを視覚的プロンプトとして、イメージパッチトークンをモデル入力として導入する。
各概念はモデル出力の特定のサブコードにマッピングされ、自然なサブコードの解釈性を提供する。
非常に類似したサブカテゴリ(鳥種など)間の微妙な視覚的差異を捉えるため,学習したハッシュコードがセマンティックアライメントを維持しつつ,微粒なオブジェクトクラス内で識別可能であることを保証するために,言語指導を取り入れた。
このアプローチにより、他の科の種とは異なるまま、種族内で類似性を示すハッシュコードを開発することができる。
4つのきめ細かい画像検索ベンチマークに関する大規模な実験は、ConceptHashが以前の方法よりも大幅に優れており、特別なサブコードの解釈可能性を提供することを示している。
コードネームはhttps://github.com/kamwoh/concepthash。
関連論文リスト
- Measuring the Interpretability of Unsupervised Representations via
Quantized Reverse Probing [97.70862116338554]
本稿では,自己教師付き表現の解釈可能性の測定問題について検討する。
我々は、後者を、表現と手動でラベル付けされた概念の空間の間の相互情報を推定するものとして定式化する。
提案手法は,多人数の自己教師付き表現の評価に利用し,解釈可能性による評価を行う。
論文 参考訳(メタデータ) (2022-09-07T16:18:50Z) - Self-Distilled Hashing for Deep Image Retrieval [25.645550298697938]
ハッシュベースの画像検索システムでは、元の入力から変換された入力は通常、異なるコードを生成する。
本稿では,拡張データの可能性を活用しつつ,相違を最小限に抑えるために,自己蒸留ハッシュ方式を提案する。
また、ハッシュプロキシに基づく類似性学習や、バイナリクロスエントロピーに基づく量子化損失を導入し、高品質なハッシュコードを提供する。
論文 参考訳(メタデータ) (2021-12-16T12:01:50Z) - PHPQ: Pyramid Hybrid Pooling Quantization for Efficient Fine-Grained
Image Retrieval [68.05570413133462]
マルチレベル特徴量から微細なセマンティック情報を捕捉・保存するためのピラミッドハイブリッドポーリング量子化(PHPQ)モジュールを提案する。
CUB-200-2011とStanford Dogsの2つの広く使用されている公開ベンチマークの実験では、PHPQが最先端の手法より優れていることが示されている。
論文 参考訳(メタデータ) (2021-09-11T07:21:02Z) - Representation Learning for Efficient and Effective Similarity Search
and Recommendation [6.280255585012339]
この論文は、より表現力のある表現とより効果的な類似度尺度を通じてハッシュコードの有効性を向上させる表現学習に貢献する。
コントリビューションは、類似性検索とレコメンデーションに関連するいくつかのタスクで実証的に検証される。
論文 参考訳(メタデータ) (2021-09-04T08:19:01Z) - CIMON: Towards High-quality Hash Codes [63.37321228830102]
我々はtextbfComprehensive stextbfImilarity textbfMining と ctextbfOnsistency leartextbfNing (CIMON) という新しい手法を提案する。
まず、グローバルな洗練と類似度統計分布を用いて、信頼性とスムーズなガイダンスを得る。第二に、意味的整合性学習とコントラスト的整合性学習の両方を導入して、乱不変と差別的ハッシュコードの両方を導出する。
論文 参考訳(メタデータ) (2020-10-15T14:47:14Z) - Deep Reinforcement Learning with Label Embedding Reward for Supervised
Image Hashing [85.84690941656528]
深層型ハッシュのための新しい意思決定手法を提案する。
我々はBose-Chaudhuri-Hocquenghem符号で定義された新しいラベル埋め込み報酬を用いて、深いQ-ネットワークを学ぶ。
我々の手法は、様々なコード長で最先端の教師付きハッシュ法より優れています。
論文 参考訳(メタデータ) (2020-08-10T09:17:20Z) - Unsupervised Semantic Hashing with Pairwise Reconstruction [22.641786533525245]
本稿では、離散変分オートエンコーダに基づくハッシュモデルであるPairwise Reconstruction(PairRec)を提案する。
PairRecと従来の手法と最先端の手法を実験的に比較し,文書類似性検索のタスクにおいて大幅な性能向上を実現した。
論文 参考訳(メタデータ) (2020-07-01T10:54:27Z) - Dual-level Semantic Transfer Deep Hashing for Efficient Social Image
Retrieval [35.78137004253608]
ソーシャルネットワークは膨大な量のユーザ共有画像を保存し、配布する。
ディープハッシュは、大規模社会画像検索をサポートする効率的なインデックス化技術である。
既存の手法は、大量のディープニューラルネットワークパラメータを最適化する際に、深刻なセマンティックな不足に悩まされる。
本稿では,DSTDH(Dual-level Semantic Transfer Deep Hashing)法を提案する。
論文 参考訳(メタデータ) (2020-06-10T01:03:09Z) - Reinforcing Short-Length Hashing [61.75883795807109]
既存の手法は、非常に短いハッシュコードを用いた検索性能が劣っている。
本研究では, 短寿命ハッシュ(RSLH)を改良する新しい手法を提案する。
本稿では,ハッシュ表現とセマンティックラベルの相互再構成を行い,セマンティック情報を保存する。
3つの大規模画像ベンチマークの実験は、様々な短いハッシュシナリオ下でのRSLHの優れた性能を示す。
論文 参考訳(メタデータ) (2020-04-24T02:23:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。