論文の概要: Towards Efficient Deep Hashing Retrieval: Condensing Your Data via
Feature-Embedding Matching
- arxiv url: http://arxiv.org/abs/2305.18076v1
- Date: Mon, 29 May 2023 13:23:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 15:00:35.073941
- Title: Towards Efficient Deep Hashing Retrieval: Condensing Your Data via
Feature-Embedding Matching
- Title(参考訳): 効率的な深層ハッシュ検索に向けて - 特徴埋め込みマッチングによるデータの凝縮
- Authors: Tao Feng, Jie Zhang, Peizheng Wang, Zhijie Wang
- Abstract要約: 最先端の深層ハッシュ検索モデルのトレーニングに要する費用は増加している。
最先端のデータセット蒸留法は、すべての深層ハッシュ検索法に拡張できない。
合成集合と実集合との特徴埋め込みをマッチングすることにより,これらの制約に対処する効率的な凝縮フレームワークを提案する。
- 参考スコア(独自算出の注目度): 7.908244841289913
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The expenses involved in training state-of-the-art deep hashing retrieval
models have witnessed an increase due to the adoption of more sophisticated
models and large-scale datasets. Dataset Distillation (DD) or Dataset
Condensation(DC) focuses on generating smaller synthetic dataset that retains
the original information. Nevertheless, existing DD methods face challenges in
maintaining a trade-off between accuracy and efficiency. And the
state-of-the-art dataset distillation methods can not expand to all deep
hashing retrieval methods. In this paper, we propose an efficient condensation
framework that addresses these limitations by matching the feature-embedding
between synthetic set and real set. Furthermore, we enhance the diversity of
features by incorporating the strategies of early-stage augmented models and
multi-formation. Extensive experiments provide compelling evidence of the
remarkable superiority of our approach, both in terms of performance and
efficiency, compared to state-of-the-art baseline methods.
- Abstract(参考訳): 最先端の深層ハッシュ検索モデルのトレーニングに要する費用は、より洗練されたモデルと大規模データセットの採用により増大している。
dataset distillation(dd)またはdataset condensation(dc)は、元の情報を保持する小さな合成データセットの生成に焦点を当てている。
それでも既存のDD手法は精度と効率のトレードオフを維持する上で困難に直面している。
そして、最先端のデータセット蒸留法は、すべての深いハッシュ検索方法に拡張できない。
本稿では,合成集合と実集合との特徴埋め込みをマッチングすることにより,これらの制約に対処する効率的な凝縮フレームワークを提案する。
さらに,初期の拡張モデルとマルチフォームの戦略を取り入れることで,特徴の多様性を高める。
大規模実験は、最先端のベースライン法と比較して、性能と効率の両面において、我々のアプローチが顕著に優れていることを示す証拠となる。
関連論文リスト
- Distribution-Aware Data Expansion with Diffusion Models [55.979857976023695]
本研究では,分散型拡散モデルに基づくトレーニングフリーなデータ拡張フレームワークであるDistDiffを提案する。
DistDiffは、オリジナルデータのみにトレーニングされたモデルと比較して、さまざまなデータセットの精度を一貫して向上させる。
論文 参考訳(メタデータ) (2024-03-11T14:07:53Z) - Importance-Aware Adaptive Dataset Distillation [53.79746115426363]
ディープラーニングモデルの開発は、大規模データセットの可用性によって実現されている。
データセットの蒸留は、大きな元のデータセットから必須情報を保持するコンパクトなデータセットを合成することを目的としている。
本稿では, 蒸留性能を向上する重要適応型データセット蒸留(IADD)法を提案する。
論文 参考訳(メタデータ) (2024-01-29T03:29:39Z) - Dataset Distillation via the Wasserstein Metric [35.32856617593164]
最適な輸送理論に基づく計量であるワッサーシュタイン距離を導入し, データセット蒸留における分布整合性を高める。
提案手法は,高解像度データセットにまたがって,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2023-11-30T13:15:28Z) - Improved Distribution Matching for Dataset Condensation [91.55972945798531]
本稿では,分布マッチングに基づく新しいデータセット凝縮法を提案する。
提案手法は,計算資源の少ない従来の最適化指向手法よりも優れている。
論文 参考訳(メタデータ) (2023-07-19T04:07:33Z) - Learning Better with Less: Effective Augmentation for Sample-Efficient
Visual Reinforcement Learning [57.83232242068982]
データ拡張(DA)は、ビジュアル強化学習(RL)アルゴリズムのサンプル効率を高める重要な手法である。
サンプル効率のよい視覚的RLを実現する上で, DAのどの属性が有効かは明らかになっていない。
本研究は,DAの属性が有効性に与える影響を評価するための総合的な実験を行う。
論文 参考訳(メタデータ) (2023-05-25T15:46:20Z) - Accelerating Dataset Distillation via Model Augmentation [41.3027484667024]
本研究では,初期モデルとパラメータを用いた2つのモデル拡張手法を提案し,学習コストを大幅に削減した情報合成集合を学習する。
提案手法は,最先端の手法と同等の性能で,最大20倍の高速化を実現している。
論文 参考訳(メタデータ) (2022-12-12T07:36:05Z) - DC-BENCH: Dataset Condensation Benchmark [79.18718490863908]
この研究は、データセットの凝縮に関する最初の大規模標準ベンチマークを提供する。
それは、凝縮法の生成可能性と有効性を包括的に反映する一連の評価から成り立っている。
ベンチマークライブラリは、将来の研究とアプリケーションを容易にするためにオープンソース化されている。
論文 参考訳(メタデータ) (2022-07-20T03:54:05Z) - CAFE: Learning to Condense Dataset by Aligning Features [72.99394941348757]
本稿ではCAFE(Aligning features)によるCondenseデータセットの新しいスキームを提案する。
このアプローチの核心は、さまざまなスケールにわたる実データと合成データから機能を整合させる効果的な戦略です。
提案したCAFEを様々なデータセットで検証し,概ね最先端技術であることを示す。
論文 参考訳(メタデータ) (2022-03-03T05:58:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。