論文の概要: Fast Class-wise Updating for Online Hashing
- arxiv url: http://arxiv.org/abs/2012.00318v1
- Date: Tue, 1 Dec 2020 07:41:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-01 04:46:51.815796
- Title: Fast Class-wise Updating for Online Hashing
- Title(参考訳): オンラインハッシュのための高速なクラスワイド更新
- Authors: Mingbao Lin, Rongrong Ji, Xiaoshuai Sun, Baochang Zhang, Feiyue Huang,
Yonghong Tian, Dacheng Tao
- Abstract要約: 本稿では,FCOH(Fast Class-wise Updating for Online Hashing)と呼ばれる新しいオンラインハッシュ方式を提案する。
クラスワイズ更新法は、バイナリコード学習を分解し、代わりにクラスワイズ方式でハッシュ関数を更新する。
オンラインの効率をより高めるために,異なるバイナリ制約を独立に扱うことで,オンライントレーニングを高速化する半緩和最適化を提案する。
- 参考スコア(独自算出の注目度): 196.14748396106955
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Online image hashing has received increasing research attention recently,
which processes large-scale data in a streaming fashion to update the hash
functions on-the-fly. To this end, most existing works exploit this problem
under a supervised setting, i.e., using class labels to boost the hashing
performance, which suffers from the defects in both adaptivity and efficiency:
First, large amounts of training batches are required to learn up-to-date hash
functions, which leads to poor online adaptivity. Second, the training is
time-consuming, which contradicts with the core need of online learning. In
this paper, a novel supervised online hashing scheme, termed Fast Class-wise
Updating for Online Hashing (FCOH), is proposed to address the above two
challenges by introducing a novel and efficient inner product operation. To
achieve fast online adaptivity, a class-wise updating method is developed to
decompose the binary code learning and alternatively renew the hash functions
in a class-wise fashion, which well addresses the burden on large amounts of
training batches. Quantitatively, such a decomposition further leads to at
least 75% storage saving. To further achieve online efficiency, we propose a
semi-relaxation optimization, which accelerates the online training by treating
different binary constraints independently. Without additional constraints and
variables, the time complexity is significantly reduced. Such a scheme is also
quantitatively shown to well preserve past information during updating hashing
functions. We have quantitatively demonstrated that the collective effort of
class-wise updating and semi-relaxation optimization provides a superior
performance comparing to various state-of-the-art methods, which is verified
through extensive experiments on three widely-used datasets.
- Abstract(参考訳): オンライン画像ハッシュは近年,大規模データをストリーミング形式で処理し,ハッシュ機能をオンザフライで更新する研究の注目を集めている。
この目的のために、既存のほとんどの研究は、教師付き設定の下でこの問題を利用する。すなわち、クラスラベルを使用してハッシュ性能を向上し、適応性と効率の両面での欠陥に悩まされる: まず、最新のハッシュ関数を学ぶために大量のトレーニングバッチが必要である。
第二に、トレーニングは時間がかかり、オンライン学習のコアニーズと矛盾する。
本稿では,オンラインハッシュのための高速クラスワイド更新(FCOH, Fast Class-wise Updating for Online Hashing)と呼ばれる新しいオンラインハッシュ方式を提案する。
高速なオンライン適応性を実現するために、バイナリコードの学習を分解し、クラス毎の方法でハッシュ関数を再更新するクラス毎更新法が開発され、大量のトレーニングバッチの負担に十分対処している。
定量的には、このような分解は少なくとも75%のストレージの節約につながる。
オンライン効率をさらに高めるために,異なるバイナリ制約を独立に扱うことでオンライントレーニングを高速化する準相対化最適化を提案する。
追加の制約や変数がなければ、時間の複雑さは大幅に減少する。
このようなスキームは、ハッシュ関数の更新中に過去の情報を適切に保存するように定量的に示される。
我々は,クラスワイズ更新とセミレラクゼーション最適化の総合的な取り組みが,多種多様な最先端手法と比較して優れた性能をもたらすことを定量的に証明した。
関連論文リスト
- Online Feature Updates Improve Online (Generalized) Label Shift Adaptation [51.328801874640675]
オンライン特徴更新を用いたオンラインラベルシフト適応法(OLS-OFU)は,自己教師付き学習を利用して特徴抽出プロセスを洗練する。
アルゴリズムを慎重に設計することで、OLS-OFUは改善された特徴を考慮しつつ、文献の結果に類似したオンライン後悔の収束を維持している。
論文 参考訳(メタデータ) (2024-02-05T22:03:25Z) - Deep Lifelong Cross-modal Hashing [17.278818467305683]
本稿では,ハッシュ関数の再学習を繰り返すのではなく,生涯ハッシュ検索を実現するために,新しい生涯横断ハッシュを提案する。
具体的には、蓄積したすべてのデータを用いて新しいハッシュ関数を再学習する代わりに、インクリメンタルデータを直接訓練することで、ハッシュ関数を更新するための生涯学習戦略を設計する。
検索精度は20%以上で、新しいデータが連続してやってくると、ほぼ80%以上のトレーニング時間を短縮する。
論文 参考訳(メタデータ) (2023-04-26T07:56:22Z) - Adaptive Cross Batch Normalization for Metric Learning [75.91093210956116]
メトリクス学習はコンピュータビジョンの基本的な問題である。
蓄積した埋め込みが最新であることを保証することは、同様に重要であることを示す。
特に、蓄積した埋め込みと現在のトレーニングイテレーションにおける特徴埋め込みとの間の表現的ドリフトを回避する必要がある。
論文 参考訳(メタデータ) (2023-03-30T03:22:52Z) - Neural Architecture for Online Ensemble Continual Learning [6.241435193861262]
我々は、エンドツーエンドのニューラルネットワークのアンサンブルを効率的に訓練できる、完全に微分可能なアンサンブル法を提案する。
提案手法は,メモリバッファを使わずにSOTA結果が得られ,参照手法よりも明らかに優れている。
論文 参考訳(メタデータ) (2022-11-27T23:17:08Z) - Online Convolutional Re-parameterization [51.97831675242173]
2段階のパイプラインであるオンライン畳み込み再パラメータ化(OREPA)は、複雑なトレーニング時間ブロックを単一の畳み込みに絞ることで、巨大なトレーニングオーバーヘッドを低減することを目的としている。
最先端のre-paramモデルと比較して、OREPAはトレーニング時間のメモリコストを約70%削減し、トレーニング速度を約2倍向上させることができる。
また、オブジェクト検出とセマンティックセグメンテーションの実験を行い、下流タスクに一貫した改善を示す。
論文 参考訳(メタデータ) (2022-04-02T09:50:19Z) - Online Enhanced Semantic Hashing: Towards Effective and Efficient
Retrieval for Streaming Multi-Modal Data [21.157717777481572]
オンライン・エンハンス・セマントイック・ハシグ(OASIS)と呼ばれる新しいモデルを提案する。
我々は、新しいクラスを扱うのに役立つ、新しいセマンティック強化されたデータ表現を設計する。
我々の手法は最先端のモデルを超えることができる。
論文 参考訳(メタデータ) (2021-09-09T13:30:31Z) - Online Hashing with Similarity Learning [31.372269816123996]
バイナリコードを更新せずに新しいオンラインハッシュフレームワークを提案する。
提案フレームワークでは、ハッシュ関数を固定し、バイナリコードに対するパラメトリック類似度関数をオンラインで学習する。
2つのマルチラベル画像データセットの実験により、我々の手法は最先端のオンラインハッシュ法より優れているか、優れていることが示された。
論文 参考訳(メタデータ) (2021-07-04T12:42:29Z) - FDDH: Fast Discriminative Discrete Hashing for Large-Scale Cross-Modal
Retrieval [41.125141897096874]
クロスモーダルハッシュはその有効性と効率性に好まれる。
既存のほとんどのメソッドは、ハッシュコードを学ぶ際に意味情報の識別力を十分に利用していない。
大規模クロスモーダル検索のためのFDDH(Fast Discriminative Discrete Hashing)手法を提案する。
論文 参考訳(メタデータ) (2021-05-15T03:53:48Z) - Making Online Sketching Hashing Even Faster [63.16042585506435]
本稿では,FROSH(FasteR Online Sketching Hashing)アルゴリズムを提案する。
提案したFROSHがより少ない時間を消費し、同等のスケッチ精度を実現することを保証するための理論的正当性を提供する。
また、FROSHの分散実装であるDFROSHを拡張して、FROSHのトレーニング時間コストをさらに削減する。
論文 参考訳(メタデータ) (2020-10-10T08:50:53Z) - Learning to Hash with Graph Neural Networks for Recommender Systems [103.82479899868191]
グラフ表現学習は、大規模に高品質な候補探索をサポートすることに多くの注目を集めている。
ユーザ・イテム相互作用ネットワークにおけるオブジェクトの埋め込みベクトルの学習の有効性にもかかわらず、連続的な埋め込み空間におけるユーザの好みを推測する計算コストは膨大である。
連続的かつ離散的なコードとを協調的に学習するための,単純かつ効果的な離散表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-04T06:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。