論文の概要: Learning Test-time Augmentation for Content-based Image Retrieval
- arxiv url: http://arxiv.org/abs/2002.01642v5
- Date: Tue, 5 Jul 2022 04:28:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 21:38:16.185523
- Title: Learning Test-time Augmentation for Content-based Image Retrieval
- Title(参考訳): コンテンツベース画像検索のための学習テスト時間拡張
- Authors: Osman Tursun, Simon Denman, Sridha Sridharan and Clinton Fookes
- Abstract要約: オフザシェルフ畳み込みニューラルネットワークは、多くの画像検索タスクにおいて優れた結果をもたらす。
既存の画像検索手法では、ターゲットデータ特有のバリエーションに適応するために、事前訓練されたネットワークを微調整または修正する必要がある。
本手法は, テスト時に強調した画像から抽出した特徴を, 強化学習を通じて学習したポリシーに則って集約することにより, 既製の特徴の分散を促進させる。
- 参考スコア(独自算出の注目度): 42.188013259368766
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Off-the-shelf convolutional neural network features achieve outstanding
results in many image retrieval tasks. However, their invariance to target data
is pre-defined by the network architecture and training data. Existing image
retrieval approaches require fine-tuning or modification of pre-trained
networks to adapt to variations unique to the target data. In contrast, our
method enhances the invariance of off-the-shelf features by aggregating
features extracted from images augmented at test-time, with augmentations
guided by a policy learned through reinforcement learning. The learned policy
assigns different magnitudes and weights to the selected transformations, which
are selected from a list of image transformations. Policies are evaluated using
a metric learning protocol to learn the optimal policy. The model converges
quickly and the cost of each policy iteration is minimal as we propose an
off-line caching technique to greatly reduce the computational cost of
extracting features from augmented images. Experimental results on large
trademark retrieval (METU trademark dataset) and landmark retrieval (ROxford5k
and RParis6k scene datasets) tasks show that the learned ensemble of
transformations is highly effective for improving performance, and is
practical, and transferable.
- Abstract(参考訳): オフザシェルフ畳み込みニューラルネットワークは、多くの画像検索タスクにおいて優れた結果をもたらす。
しかしながら、ターゲットデータに対する不変性は、ネットワークアーキテクチャとトレーニングデータによって事前に定義されている。
既存の画像検索手法では、ターゲットデータ特有のバリエーションに適応するために、事前訓練されたネットワークを微調整または修正する必要がある。
対照的に,本手法は,テスト時に強調した画像から抽出した特徴を,強化学習を通じて学習したポリシーで導くことで,オフザシェルフ特徴の不変性を高める。
学習されたポリシーは、画像変換のリストから選択された変換に異なる大きさと重みを割り当てる。
最適ポリシーを学習するために、メトリック学習プロトコルを用いてポリシーを評価する。
モデルが急速に収束し,各ポリシーイテレーションのコストは最小限であり,拡張画像から特徴を抽出する計算コストを大幅に削減するオフラインキャッシュ手法を提案する。
大規模商標検索(METU商標データセット)およびランドマーク検索(ROxford5kおよびRParis6kシーンデータセット)タスクの実験結果は,変換の学習アンサンブルが性能向上に極めて有効であり,実用的かつ伝達可能であることを示している。
関連論文リスト
- Synergy and Diversity in CLIP: Enhancing Performance Through Adaptive Backbone Ensembling [58.50618448027103]
コントラスト言語-画像事前学習(CLIP)は画像表現学習において顕著な手法である。
本稿では,CLIPを訓練した視覚バックボーンの違いについて検討する。
方法によって、最高の単一のバックボーンよりも39.1%の精度が著しく向上する。
論文 参考訳(メタデータ) (2024-05-27T12:59:35Z) - Image edge enhancement for effective image classification [7.470763273994321]
ニューラルネットワークの精度とトレーニング速度を両立させるエッジ拡張に基づく手法を提案する。
我々のアプローチは、利用可能なデータセット内の画像からエッジなどの高周波特徴を抽出し、元の画像と融合させることである。
論文 参考訳(メタデータ) (2024-01-13T10:01:34Z) - Augmentation Learning for Semi-Supervised Classification [13.519613713213277]
本稿では,特定のデータセットに対して最も効果的なデータ拡張ポリシーを自動選択する半教師付き学習手法を提案する。
ImageNet以外のデータセットへの拡張にポリシー学習をどのように適用できるかを示す。
論文 参考訳(メタデータ) (2022-08-03T10:06:51Z) - Combining Image Features and Patient Metadata to Enhance Transfer
Learning [0.0]
画像特徴のみを用いる場合の分類作業における6つの最先端ディープニューラルネットワークの性能と,これらを患者のメタデータと組み合わせた場合の比較を行った。
以上の結果から,この性能向上はディープネットワークの一般的な特性である可能性が示唆され,他の分野での探索が望まれる。
論文 参考訳(メタデータ) (2021-10-08T15:43:31Z) - AugNet: End-to-End Unsupervised Visual Representation Learning with
Image Augmentation [3.6790362352712873]
我々は、未ラベル画像の集合から画像特徴を学習するための新しいディープラーニングトレーニングパラダイムであるAugNetを提案する。
実験により,低次元空間における画像の表現が可能であることを実証した。
多くのディープラーニングベースの画像検索アルゴリズムとは異なり、我々のアプローチは外部アノテーション付きデータセットへのアクセスを必要としない。
論文 参考訳(メタデータ) (2021-06-11T09:02:30Z) - Contrastive Learning with Stronger Augmentations [63.42057690741711]
本論文では,現在のコントラスト学習のアプローチを補完する,より強い拡張(A)によるコントラスト学習という汎用フレームワークを提案する。
ここでは、表現バンク上の弱強調画像と強拡張画像との間の分布のばらつきを利用して、強拡張クエリの検索を監督する。
実験では、強力な画像からの情報により、パフォーマンスが大幅に向上します。
論文 参考訳(メタデータ) (2021-04-15T18:40:04Z) - Learning Representational Invariances for Data-Efficient Action
Recognition [52.23716087656834]
我々は,データ拡張戦略により,Kinetics-100,UCF-101,HMDB-51データセットのパフォーマンスが期待できることを示す。
また,完全な教師付き設定でデータ拡張戦略を検証し,性能向上を実証した。
論文 参考訳(メタデータ) (2021-03-30T17:59:49Z) - MetaAugment: Sample-Aware Data Augmentation Policy Learning [20.988767360529362]
我々は、サンプル再重み付け問題として定式化することで、サンプル認識データ拡張ポリシーを効率的に学習する。
拡張ポリシーネットワークは、変換と対応する拡張画像とを入力とし、重みを出力してタスクネットワークで計算された拡張画像損失を調整する。
トレーニング段階では、タスクネットワークは強化訓練画像の重み付け損失を最小限に抑え、ポリシーネットワークはメタラーニングによる検証セット上のタスクネットワークの損失を最小限にする。
論文 参考訳(メタデータ) (2020-12-22T15:19:27Z) - Data Augmentation for Meta-Learning [58.47185740820304]
メタ学習アルゴリズムは、各トレーニングステップでデータ、クエリデータ、タスクをサンプリングする。
データ拡張は、クラス毎に利用可能な画像の数を増やすだけでなく、全く新しいクラス/タスクを生成するためにも使用できる。
提案したメタ固有データ拡張は,数ショットの分類ベンチマークにおいて,メタラーナーの性能を著しく向上させる。
論文 参考訳(メタデータ) (2020-10-14T13:48:22Z) - FeatMatch: Feature-Based Augmentation for Semi-Supervised Learning [64.32306537419498]
本稿では,複雑な変換を多様に生成する特徴量に基づく改良・拡張手法を提案する。
これらの変換は、クラスタリングを通じて抽出したクラス内およびクラス間の両方の情報も利用します。
提案手法は,大規模データセットにスケールアップしながら,より小さなデータセットに対して,現在の最先端技術に匹敵するものであることを実証する。
論文 参考訳(メタデータ) (2020-07-16T17:55:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。