論文の概要: Towards Efficient Deep Hashing Retrieval: Condensing Your Data via Feature-Embedding Matching
- arxiv url: http://arxiv.org/abs/2305.18076v2
- Date: Mon, 03 Mar 2025 09:26:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 23:36:47.709198
- Title: Towards Efficient Deep Hashing Retrieval: Condensing Your Data via Feature-Embedding Matching
- Title(参考訳): 効率的なディープハッシュ検索に向けて - 特徴埋め込みマッチングを通じてデータを凝縮する
- Authors: Tao Feng, Jie Zhang, Huashan Liu, Zhijie Wang, Shengyuan Pang,
- Abstract要約: 複雑な最適化と大規模なデータセットのため、高度な深層ハッシュモデルのトレーニングが高価になっている。
IEM(Information-intensive feature Embedding Matching, 情報集約型特徴埋め込みマッチング)を提案する。
- 参考スコア(独自算出の注目度): 5.2193774924981176
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep hashing retrieval has gained widespread use in big data retrieval due to its robust feature extraction and efficient hashing process. However, training advanced deep hashing models has become more expensive due to complex optimizations and large datasets. Coreset selection and Dataset Condensation lower overall training costs by reducing the volume of training data without significantly compromising model accuracy for classification task. In this paper, we explore the effect of mainstream dataset condensation methods for deep hashing retrieval and propose IEM (Information-intensive feature Embedding Matching), which is centered on distribution matching and incorporates model and data augmentation techniques to further enhance the feature of hashing space. Extensive experiments demonstrate the superior performance and efficiency of our approach.
- Abstract(参考訳): ディープハッシュ検索は、その堅牢な特徴抽出と効率的なハッシュ処理により、ビッグデータ検索に広く利用されている。
しかし、複雑な最適化と大規模なデータセットのため、高度な深層ハッシュモデルのトレーニングが高価になっている。
コアセット選択とデータセット凝縮は、分類タスクのモデルの精度を著しく損なうことなく、トレーニングデータの量を削減することで、全体的なトレーニングコストを下げる。
本稿では,本手法が深層ハッシュ検索に与える影響を考察し,分散マッチングに着目したIEM(Information-intensive feature Embedding Matching)を提案する。
大規模な実験は、我々のアプローチの優れた性能と効率を実証する。
関連論文リスト
- KALAHash: Knowledge-Anchored Low-Resource Adaptation for Deep Hashing [19.667480064079083]
既存のディープハッシュ手法は豊富なトレーニングデータに依存しており、低リソース適応のより困難なシナリオは比較的過小評価されている。
そこで我々は,クラスレベルのテキスト知識の埋め込みを活用することで,低ランク適応を動的に構築する新しいプラグイン・アンド・プレイアプローチであるClass-Calibration LoRAを紹介する。
提案手法であるKnowledge-Anchored Low-Resource Adaptation Hashing (KALAHash)は,検索性能を大幅に向上し,低リソースシナリオにおけるデータ効率を4倍に向上させる。
論文 参考訳(メタデータ) (2024-12-27T03:04:54Z) - Deep learning-based shot-domain seismic deblending [1.6411821807321063]
我々は,各帆行の最後に獲得した未完成のショットコレクションを利用する。
これらのデータを手動でブレンドすることで、地上の真実をうまく制御したトレーニングデータが得られる。
隣接するブレンドショット集合を含むマルチチャネル入力を用いてディープニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2024-09-13T07:32:31Z) - RREH: Reconstruction Relations Embedded Hashing for Semi-Paired Cross-Modal Retrieval [32.06421737874828]
Restructation Relations Embedded Hashing (RREH) は、半ペア型クロスモーダル検索タスク用に設計されている。
RREHはマルチモーダルデータが共通の部分空間を共有すると仮定する。
アンカーはペアのデータからサンプリングされ ハッシュ学習の効率が向上します
論文 参考訳(メタデータ) (2024-05-28T03:12:54Z) - Distribution-Aware Data Expansion with Diffusion Models [55.979857976023695]
本研究では,分散型拡散モデルに基づくトレーニングフリーなデータ拡張フレームワークであるDistDiffを提案する。
DistDiffは、オリジナルデータのみにトレーニングされたモデルと比較して、さまざまなデータセットの精度を一貫して向上させる。
論文 参考訳(メタデータ) (2024-03-11T14:07:53Z) - Importance-Aware Adaptive Dataset Distillation [53.79746115426363]
ディープラーニングモデルの開発は、大規模データセットの可用性によって実現されている。
データセットの蒸留は、大きな元のデータセットから必須情報を保持するコンパクトなデータセットを合成することを目的としている。
本稿では, 蒸留性能を向上する重要適応型データセット蒸留(IADD)法を提案する。
論文 参考訳(メタデータ) (2024-01-29T03:29:39Z) - Dataset Distillation via the Wasserstein Metric [35.32856617593164]
最適な輸送理論に基づく計量であるワッサーシュタイン距離を導入し, データセット蒸留における分布整合性を高める。
提案手法は,高解像度データセットにまたがって,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2023-11-30T13:15:28Z) - Improved Distribution Matching for Dataset Condensation [91.55972945798531]
本稿では,分布マッチングに基づく新しいデータセット凝縮法を提案する。
提案手法は,計算資源の少ない従来の最適化指向手法よりも優れている。
論文 参考訳(メタデータ) (2023-07-19T04:07:33Z) - Learning Better with Less: Effective Augmentation for Sample-Efficient
Visual Reinforcement Learning [57.83232242068982]
データ拡張(DA)は、ビジュアル強化学習(RL)アルゴリズムのサンプル効率を高める重要な手法である。
サンプル効率のよい視覚的RLを実現する上で, DAのどの属性が有効かは明らかになっていない。
本研究は,DAの属性が有効性に与える影響を評価するための総合的な実験を行う。
論文 参考訳(メタデータ) (2023-05-25T15:46:20Z) - Dataset Distillation: A Comprehensive Review [76.26276286545284]
データセット蒸留(DD)は、トレーニングされたモデルが元のデータセットでトレーニングされたデータセットに匹敵するパフォーマンスを得るために、合成サンプルを含むはるかに小さなデータセットを導出することを目的としている。
本稿ではDDの最近の進歩とその応用について概説する。
論文 参考訳(メタデータ) (2023-01-17T17:03:28Z) - Accelerating Dataset Distillation via Model Augmentation [41.3027484667024]
本研究では,初期モデルとパラメータを用いた2つのモデル拡張手法を提案し,学習コストを大幅に削減した情報合成集合を学習する。
提案手法は,最先端の手法と同等の性能で,最大20倍の高速化を実現している。
論文 参考訳(メタデータ) (2022-12-12T07:36:05Z) - Segmentation-guided Domain Adaptation for Efficient Depth Completion [3.441021278275805]
本稿では,vgg05型CNNアーキテクチャと半教師付きドメイン適応手法に基づく効率的な深度補完モデルを提案する。
空間的コヒーレンスを高めるため,情報ソースとしてセグメンテーションを用いた学習プロセスを導出する。
提案手法は,計算フットプリントを著しく低くしながら,従来手法の効率的かつ低パラメータ状態を改善する。
論文 参考訳(メタデータ) (2022-10-14T13:01:25Z) - DC-BENCH: Dataset Condensation Benchmark [79.18718490863908]
この研究は、データセットの凝縮に関する最初の大規模標準ベンチマークを提供する。
それは、凝縮法の生成可能性と有効性を包括的に反映する一連の評価から成り立っている。
ベンチマークライブラリは、将来の研究とアプリケーションを容易にするためにオープンソース化されている。
論文 参考訳(メタデータ) (2022-07-20T03:54:05Z) - CAFE: Learning to Condense Dataset by Aligning Features [72.99394941348757]
本稿ではCAFE(Aligning features)によるCondenseデータセットの新しいスキームを提案する。
このアプローチの核心は、さまざまなスケールにわたる実データと合成データから機能を整合させる効果的な戦略です。
提案したCAFEを様々なデータセットで検証し,概ね最先端技術であることを示す。
論文 参考訳(メタデータ) (2022-03-03T05:58:49Z) - DANCE: DAta-Network Co-optimization for Efficient Segmentation Model Training and Inference [86.03382625531951]
DANCEは、効率的なセグメンテーションモデルのトレーニングと推論のための自動データネットワーク協調最適化である。
入力イメージを適応的にダウンサンプル/ドロップする自動データスライミングを統合し、画像の空間的複雑さによって導かれるトレーニング損失に対するそれに対応するコントリビューションを制御する。
実験と非難研究により、DANCEは効率的なセグメンテーションに向けて「オールウィン」を達成できることを示した。
論文 参考訳(メタデータ) (2021-07-16T04:58:58Z) - Making Online Sketching Hashing Even Faster [63.16042585506435]
本稿では,FROSH(FasteR Online Sketching Hashing)アルゴリズムを提案する。
提案したFROSHがより少ない時間を消費し、同等のスケッチ精度を実現することを保証するための理論的正当性を提供する。
また、FROSHの分散実装であるDFROSHを拡張して、FROSHのトレーニング時間コストをさらに削減する。
論文 参考訳(メタデータ) (2020-10-10T08:50:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。