論文の概要: AMES: Asymmetric and Memory-Efficient Similarity Estimation for Instance-level Retrieval
- arxiv url: http://arxiv.org/abs/2408.03282v1
- Date: Tue, 6 Aug 2024 16:29:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-07 13:38:12.013461
- Title: AMES: Asymmetric and Memory-Efficient Similarity Estimation for Instance-level Retrieval
- Title(参考訳): AMES:インスタンスレベルの検索のための非対称かつメモリ効率の類似性推定
- Authors: Pavel Suma, Giorgos Kordopatis-Zilos, Ahmet Iscen, Giorgos Tolias,
- Abstract要約: 本研究は,メモリ効率の制約を考慮に入れたインスタンスレベルの画像検索の問題について検討する。
提案モデルは、画像と画像の類似性を推定するために設計されたトランスフォーマーベースのアーキテクチャを使用する。
標準ベンチマークの結果は、手作りモデルと学習モデルの両方に対するアプローチの優位性を示している。
- 参考スコア(独自算出の注目度): 14.009257997448634
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work investigates the problem of instance-level image retrieval re-ranking with the constraint of memory efficiency, ultimately aiming to limit memory usage to 1KB per image. Departing from the prevalent focus on performance enhancements, this work prioritizes the crucial trade-off between performance and memory requirements. The proposed model uses a transformer-based architecture designed to estimate image-to-image similarity by capturing interactions within and across images based on their local descriptors. A distinctive property of the model is the capability for asymmetric similarity estimation. Database images are represented with a smaller number of descriptors compared to query images, enabling performance improvements without increasing memory consumption. To ensure adaptability across different applications, a universal model is introduced that adjusts to a varying number of local descriptors during the testing phase. Results on standard benchmarks demonstrate the superiority of our approach over both hand-crafted and learned models. In particular, compared with current state-of-the-art methods that overlook their memory footprint, our approach not only attains superior performance but does so with a significantly reduced memory footprint. The code and pretrained models are publicly available at: https://github.com/pavelsuma/ames
- Abstract(参考訳): 本研究は、メモリ効率の制約によりインスタンスレベルの画像検索が再ランク付けされる問題について検討し、最終的にメモリ使用量を1KBに制限することを目的とした。
パフォーマンス向上に重点を置きながら、この作業はパフォーマンスとメモリ要件の間の重要なトレードオフを優先します。
提案モデルでは,画像間のインタラクションを局所記述子に基づいてキャプチャすることで,画像と画像の類似性を推定するトランスフォーマーアーキテクチャを用いている。
モデルの特徴は非対称類似性推定の能力である。
データベースイメージはクエリイメージよりも少ない数の記述子で表現され、メモリ消費を増やすことなくパフォーマンスが改善される。
異なるアプリケーション間で適応性を確保するために、テストフェーズ中に様々なローカル記述子に調整するユニバーサルモデルが導入された。
標準ベンチマークの結果は、手作りモデルと学習モデルの両方に対するアプローチの優位性を示している。
特に、現在のメモリフットプリントを見落としている最先端の手法と比較して、我々のアプローチは優れた性能を得るだけでなく、メモリフットプリントを大幅に削減する。
コードと事前訓練されたモデルは、https://github.com/pavelsuma/ames.comで公開されている。
関連論文リスト
- Addressing Issues with Working Memory in Video Object Segmentation [37.755852787082254]
ビデオオブジェクトセグメンテーション(VOS)モデルは、入ってくる未注釈画像と画像マスク関係の歴史を比較する。
芸術モデルの現在の状態は、クリーンなビデオデータで非常によく機能する。
以前のフレームのワーキングメモリへの依存は、エラーの余地を残します。
既存の動作メモリベースのVOSモデルに適用可能な,簡単なアルゴリズム変更を提案する。
論文 参考訳(メタデータ) (2024-10-29T18:34:41Z) - Beyond Learned Metadata-based Raw Image Reconstruction [86.1667769209103]
生画像は、線形性や微細な量子化レベルなど、sRGB画像に対して明確な利点がある。
ストレージの要求が大きいため、一般ユーザからは広く採用されていない。
本稿では,メタデータとして,潜在空間におけるコンパクトな表現を学習する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-21T06:59:07Z) - GeneCIS: A Benchmark for General Conditional Image Similarity [21.96493413291777]
我々は「相似性」には多くの概念があり、人間のようにモデルがこれらのモデルに動的に適応できるべきだと論じている。
我々は、モデルが様々な類似性条件に適応する能力を測定するGeneCISベンチマークを提案する。
論文 参考訳(メタデータ) (2023-06-13T17:59:58Z) - Improving Image Recognition by Retrieving from Web-Scale Image-Text Data [68.63453336523318]
本稿では,メモリから抽出した各サンプルの重要性を学習するアテンションベースのメモリモジュールを提案する。
既存の手法と比較して,提案手法は無関係な検索例の影響を排除し,入力クエリに有益であるものを保持する。
我々は、ImageNet-LT、Places-LT、Webvisionのデータセットで最先端の精度を実現していることを示す。
論文 参考訳(メタデータ) (2023-04-11T12:12:05Z) - Asymmetric Image Retrieval with Cross Model Compatible Ensembles [4.86935886318034]
非対称検索は、顔認識や画像検索のようなリソース制約のあるアプリケーションに適したソリューションである。
本稿では, 知識蒸留に頼るのではなく, 埋め込み変換モデルを用いるアプローチを提案する。
クエリの計算予算を低く保ちながら,どのモデルよりも全体的な精度を向上する。
論文 参考訳(メタデータ) (2023-03-30T16:53:07Z) - A Model or 603 Exemplars: Towards Memory-Efficient Class-Incremental
Learning [56.450090618578]
CIL(Class-Incremental Learning)は、この要件を満たすために、限られたメモリサイズでモデルをトレーニングすることを目的としている。
モデルサイズを総予算にカウントし,メモリサイズに整合する手法を比較すると,保存モデルは常に機能しないことを示す。
本稿では,メモリ効率のよい拡張可能なMOdelのための MEMO という,シンプルで効果的なベースラインを提案する。
論文 参考訳(メタデータ) (2022-05-26T08:24:01Z) - Recall@k Surrogate Loss with Large Batches and Similarity Mixup [62.67458021725227]
微分不可能な場合、評価計量の勾配降下による直接最適化は不可能である。
本研究は,リコールにおける相異なるサロゲート損失を提案する。
提案手法は,複数の画像検索ベンチマークにおいて最先端の結果を得る。
論文 参考訳(メタデータ) (2021-08-25T11:09:11Z) - Multiscale Deep Equilibrium Models [162.15362280927476]
マルチスケールディープ均衡モデル(MDEQ)を新たに提案する。
MDEQは、複数の特徴分解の平衡点を直接解き、同時に伝播する。
本稿では,Cityscapesデータセットの高解像度画像に対するイメージネット分類とセマンティックセグメンテーションの2つの大規模ビジョンタスクにおけるこのアプローチの有効性について述べる。
論文 参考訳(メタデータ) (2020-06-15T18:07:44Z) - Memory-Efficient Incremental Learning Through Feature Adaptation [71.1449769528535]
本稿では,以前学習したクラスから,画像の特徴記述子を保存するインクリメンタルラーニングのアプローチを提案する。
画像のより低次元の機能埋め込みを維持することで、メモリフットプリントが大幅に削減される。
実験の結果,インクリメンタルラーニングベンチマークにおいて,最先端の分類精度が得られた。
論文 参考訳(メタデータ) (2020-04-01T21:16:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。