論文の概要: Introspective Deep Metric Learning
- arxiv url: http://arxiv.org/abs/2205.04449v1
- Date: Mon, 9 May 2022 17:51:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-10 13:56:31.772352
- Title: Introspective Deep Metric Learning
- Title(参考訳): イントロスペクティブ深層学習
- Authors: Chengkun Wang, Wenzhao Zheng, Zheng Zhu, Jie Zhou, Jiwen Lu
- Abstract要約: 本稿では,不確実性を考慮した画像比較のためのイントロスペクティブな深度学習フレームワークを提案する。
我々のフレームワークは、広く使われているCUB-200-2011、Cars196、Stanford Online Productsのデータセット上で、最先端のパフォーマンスを実現しています。
- 参考スコア(独自算出の注目度): 94.31804364707575
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes an introspective deep metric learning (IDML) framework
for uncertainty-aware comparisons of images. Conventional deep metric learning
methods produce confident semantic distances between images regardless of the
uncertainty level. However, we argue that a good similarity model should
consider the semantic discrepancies with caution to better deal with ambiguous
images for more robust training. To achieve this, we propose to represent an
image using not only a semantic embedding but also an accompanying uncertainty
embedding, which describes the semantic characteristics and ambiguity of an
image, respectively. We further propose an introspective similarity metric to
make similarity judgments between images considering both their semantic
differences and ambiguities. Our framework attains state-of-the-art performance
on the widely used CUB-200-2011, Cars196, and Stanford Online Products datasets
for image retrieval. We further evaluate our framework for image classification
on the ImageNet-1K, CIFAR-10, and CIFAR-100 datasets, which shows that
equipping existing data mixing methods with the proposed introspective metric
consistently achieves better results (e.g., +0.44 for CutMix on ImageNet-1K).
Code is available at: https://github.com/wangck20/IDML.
- Abstract(参考訳): 本稿では,不確実性を考慮した画像比較のための内観的深度学習(IDML)フレームワークを提案する。
従来のディープメトリック学習手法は、不確実性レベルに関係なく、画像間の自信ある意味距離を生成する。
しかし,良質な類似性モデルでは,より強固なトレーニングのために曖昧な画像を扱うための注意が必要である。
そこで本研究では,画像の意味的特徴とあいまいさをそれぞれ記述した,意味的埋め込みだけでなく付随する不確実性埋め込みを用いた画像表現を提案する。
さらに,その意味的差異とあいまいさの両方を考慮し,画像間の類似性判定を行うイントロスペクティブ類似度尺度を提案する。
我々は,CUB-200-2011,Cars196,Stanford Online Productsといった画像検索用データセット上で,最先端のパフォーマンスを実現する。
さらに,ImageNet-1K, CIFAR-10, CIFAR-100データセット上での画像分類の枠組みについて検討し, 提案したイントロスペクティブ・メトリックと既存のデータ混合手法を併用することで, より優れた結果が得られることを示す(例: ImageNet-1K上のCutMixの+0.44)。
コードはhttps://github.com/wangck20/idml。
関連論文リスト
- Post-hoc Probabilistic Vision-Language Models [51.12284891724463]
視覚言語モデル(VLM)は、分類、検索、生成タスクにおいて顕著な成功を収めている。
追加トレーニングを必要としないVLMにおけるポストホック不確実性評価を提案する。
この結果から,大規模モデルの安全性クリティカルな応用が期待できることがわかった。
論文 参考訳(メタデータ) (2024-12-08T18:16:13Z) - Annotation Cost-Efficient Active Learning for Deep Metric Learning Driven Remote Sensing Image Retrieval [3.2109665109975696]
ANNEALは、類似した、異種のイメージペアで構成された、小さくて情報的なトレーニングセットを作成することを目的としている。
不確実性と多様性の基準を組み合わせることにより、画像対の情報性を評価する。
このアノテート方式は、ランド・ユース・ランド・カバー・クラスラベルによるアノテート画像と比較して、アノテーションコストを著しく削減する。
論文 参考訳(メタデータ) (2024-06-14T15:08:04Z) - Introspective Deep Metric Learning [91.47907685364036]
本稿では,不確実性を考慮した画像比較のためのイントロスペクティブな深度学習フレームワークを提案する。
提案するIDMLフレームワークは,不確実性モデリングによるディープメトリック学習の性能を向上させる。
論文 参考訳(メタデータ) (2023-09-11T16:21:13Z) - Learning Contrastive Representation for Semantic Correspondence [150.29135856909477]
セマンティックマッチングのためのマルチレベルコントラスト学習手法を提案する。
画像レベルのコントラスト学習は、畳み込み特徴が類似したオブジェクト間の対応を見出すための鍵となる要素であることを示す。
論文 参考訳(メタデータ) (2021-09-22T18:34:14Z) - Dense Semantic Contrast for Self-Supervised Visual Representation
Learning [12.636783522731392]
意味圏決定境界を密度の高いレベルでモデル化するためのDense Semantic Contrast(DSC)を提案する。
本稿では,多粒度表現学習のためのクロスイメージ・セマンティック・コントラッシブ・ラーニング・フレームワークを提案する。
実験結果から,DSCモデルは下流の高密度予測タスクに転送する場合に,最先端の手法よりも優れることがわかった。
論文 参考訳(メタデータ) (2021-09-16T07:04:05Z) - Deep Relational Metric Learning [84.95793654872399]
本稿では,画像クラスタリングと検索のためのディープリレーショナルメトリック学習フレームワークを提案する。
我々は、クラス間分布とクラス内分布の両方をモデル化するために、異なる側面から画像を特徴付ける特徴のアンサンブルを学ぶ。
広く使われているCUB-200-2011、Cars196、Stanford Online Productsデータセットの実験は、我々のフレームワークが既存の深層学習方法を改善し、非常に競争力のある結果をもたらすことを示した。
論文 参考訳(メタデータ) (2021-08-23T09:31:18Z) - Intrinsic Image Captioning Evaluation [53.51379676690971]
I2CE(Intrinsic Image Captioning Evaluation)と呼ばれる画像キャプションのための学習ベースメトリクスを提案する。
実験の結果,提案手法は頑健な性能を維持し,意味的類似表現やアライメントの少ない意味論に遭遇した場合,候補キャプションに対してより柔軟なスコアを与えることができた。
論文 参考訳(メタデータ) (2020-12-14T08:36:05Z) - DeepSim: Semantic similarity metrics for learned image registration [6.789370732159177]
画像登録のための意味的類似度尺度を提案する。
提案手法は,学習ベース登録モデルの最適化を促進する,データセット固有の特徴を学習する。
論文 参考訳(メタデータ) (2020-11-11T12:35:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。