論文の概要: Class Anchor Margin Loss for Content-Based Image Retrieval
- arxiv url: http://arxiv.org/abs/2306.00630v1
- Date: Thu, 1 Jun 2023 12:53:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-02 16:13:07.481972
- Title: Class Anchor Margin Loss for Content-Based Image Retrieval
- Title(参考訳): コンテンツベース画像検索におけるクラスアンカーマージン損失
- Authors: Alexandru Ghita and Radu Tudor Ionescu
- Abstract要約: 距離学習パラダイムに該当する新しいレペラ・トラクタ損失を提案するが、ペアを生成する必要がなく、直接L2メトリックに最適化する。
CBIRタスクにおいて,畳み込みアーキテクチャと変圧器アーキテクチャの両方を用いて,少数ショットおよびフルセットトレーニングの文脈で提案した目的を評価する。
- 参考スコア(独自算出の注目度): 97.81742911657497
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The performance of neural networks in content-based image retrieval (CBIR) is
highly influenced by the chosen loss (objective) function. The majority of
objective functions for neural models can be divided into metric learning and
statistical learning. Metric learning approaches require a pair mining strategy
that often lacks efficiency, while statistical learning approaches are not
generating highly compact features due to their indirect feature optimization.
To this end, we propose a novel repeller-attractor loss that falls in the
metric learning paradigm, yet directly optimizes for the L2 metric without the
need of generating pairs. Our loss is formed of three components. One leading
objective ensures that the learned features are attracted to each designated
learnable class anchor. The second loss component regulates the anchors and
forces them to be separable by a margin, while the third objective ensures that
the anchors do not collapse to zero. Furthermore, we develop a more efficient
two-stage retrieval system by harnessing the learned class anchors during the
first stage of the retrieval process, eliminating the need of comparing the
query with every image in the database. We establish a set of four datasets
(CIFAR-100, Food-101, SVHN, and Tiny ImageNet) and evaluate the proposed
objective in the context of few-shot and full-set training on the CBIR task, by
using both convolutional and transformer architectures. Compared to existing
objective functions, our empirical evidence shows that the proposed objective
is generating superior and more consistent results.
- Abstract(参考訳): コンテンツベース画像検索(CBIR)におけるニューラルネットワークの性能は、選択された損失(客観的)関数の影響が大きい。
ニューラルネットワークの客観的関数の大部分は、メトリック学習と統計学習に分けられる。
メトリクス学習アプローチは効率を欠くペアマイニング戦略を必要とするが、統計学習アプローチは間接的特徴最適化のために高度にコンパクトな特徴を生成していない。
そこで本研究では,ペアを生成する必要なしに,L2メトリックに対して直接最適化できる新しいレペラ・トラクタ損失を提案する。
私たちの損失は3つの要素から成り立っている。
1つの主要な目的は、学習可能な各クラスアンカーに学習された特徴を引き付けることである。
第2の損失成分はアンカーを規制し、マージンで分離させ、第3の目標はアンカーがゼロに崩壊しないことを保証する。
さらに,学習したクラスアンカーを検索プロセスの第1段階で活用し,データベース内の各画像とクエリを比較する必要をなくし,より効率的な2段階検索システムを開発する。
提案する4つのデータセット (CIFAR-100, Food-101, SVHN, Tiny ImageNet) を構築し, 畳み込みアーキテクチャとトランスフォーマーアーキテクチャの両方を用いてCBIRタスクにおける少数ショットおよびフルセットトレーニングの文脈において, 提案する目的を評価する。
既存の目的関数と比較して,提案する目的がより優れた,より一貫性のある結果を生み出すことを示している。
関連論文リスト
- SuSana Distancia is all you need: Enforcing class separability in metric
learning via two novel distance-based loss functions for few-shot image
classification [0.9236074230806579]
本稿では,少数のデータ間のクラス内距離とクラス間距離を調べることで,埋め込みベクトルの重要性を考慮に入れた2つの損失関数を提案する。
以上の結果から,miniImagenNetベンチマークの精度は,他のメトリクスベースの数ショット学習手法に比べて2%向上した。
論文 参考訳(メタデータ) (2023-05-15T23:12:09Z) - Learning to Learn with Indispensable Connections [6.040904021861969]
本稿では,メタ-LTHと呼ばれるメタ-LTHと呼ばれるメタ-ラーニング手法を提案する。
本手法は,オムニグロットデータセットの分類精度を約2%向上させる。
論文 参考訳(メタデータ) (2023-04-06T04:53:13Z) - Decoupled and Memory-Reinforced Networks: Towards Effective Feature
Learning for One-Step Person Search [65.51181219410763]
歩行者検出と識別サブタスクを1つのネットワークで処理するワンステップ方式を開発しました。
現在のワンステップアプローチには2つの大きな課題があります。
本稿では,これらの問題を解決するために,分離メモリ強化ネットワーク(DMRNet)を提案する。
論文 参考訳(メタデータ) (2021-02-22T06:19:45Z) - Fast Few-Shot Classification by Few-Iteration Meta-Learning [173.32497326674775]
数ショット分類のための高速な最適化に基づくメタラーニング手法を提案する。
我々の戦略はメタ学習において学習すべき基礎学習者の目的の重要な側面を可能にする。
我々は、我々のアプローチの速度と効果を実証し、総合的な実験分析を行う。
論文 参考訳(メタデータ) (2020-10-01T15:59:31Z) - Tasks Integrated Networks: Joint Detection and Retrieval for Image
Search [99.49021025124405]
多くの現実世界の探索シナリオ(例えばビデオ監視)では、オブジェクトは正確に検出または注釈付けされることはめったにない。
まず、エンド・ツー・エンド統合ネット(I-Net)を紹介します。
さらに,2つの新しいコントリビューションを行うDC-I-Netという改良されたI-Netを提案する。
論文 参考訳(メタデータ) (2020-09-03T03:57:50Z) - Learning to hash with semantic similarity metrics and empirical KL
divergence [3.04585143845864]
ハッシュの学習は、大規模データベースからの近接探索を正確に、そして近似的に行うための効率的なパラダイムである。
バイナリハッシュコードは典型的には、CNNから出力特徴を丸め、イメージから抽出される。
i) 学習特徴の相対的なハッシュコード距離を目標値と一致するように促進する新規な損失関数により, (i) を克服する。
我々は、ネットワーク出力とバイナリターゲット分布のKL分散の微分可能な推定を通じて、(ii)に対処し、その結果、特徴がバイナリに丸められたときの情報損失を最小限に抑える。
論文 参考訳(メタデータ) (2020-05-11T08:20:26Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z) - Generalized Reinforcement Meta Learning for Few-Shot Optimization [3.7675996866306845]
本稿では, 汎用的かつ柔軟な強化学習(RL)に基づくメタラーニングフレームワークを提案する。
我々のフレームワークは簡単にネットワークアーキテクチャ検索に拡張できる。
論文 参考訳(メタデータ) (2020-05-04T03:21:05Z) - Learning to Hash with Graph Neural Networks for Recommender Systems [103.82479899868191]
グラフ表現学習は、大規模に高品質な候補探索をサポートすることに多くの注目を集めている。
ユーザ・イテム相互作用ネットワークにおけるオブジェクトの埋め込みベクトルの学習の有効性にもかかわらず、連続的な埋め込み空間におけるユーザの好みを推測する計算コストは膨大である。
連続的かつ離散的なコードとを協調的に学習するための,単純かつ効果的な離散表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-04T06:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。