論文の概要: Introspective Deep Metric Learning
- arxiv url: http://arxiv.org/abs/2309.09982v1
- Date: Mon, 11 Sep 2023 16:21:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-24 04:07:14.371455
- Title: Introspective Deep Metric Learning
- Title(参考訳): イントロスペクティブ深層学習
- Authors: Chengkun Wang, Wenzhao Zheng, Zheng Zhu, Jie Zhou, Jiwen Lu
- Abstract要約: 本稿では,不確実性を考慮した画像比較のためのイントロスペクティブな深度学習フレームワークを提案する。
提案するIDMLフレームワークは,不確実性モデリングによるディープメトリック学習の性能を向上させる。
- 参考スコア(独自算出の注目度): 91.47907685364036
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes an introspective deep metric learning (IDML) framework
for uncertainty-aware comparisons of images. Conventional deep metric learning
methods focus on learning a discriminative embedding to describe the semantic
features of images, which ignore the existence of uncertainty in each image
resulting from noise or semantic ambiguity. Training without awareness of these
uncertainties causes the model to overfit the annotated labels during training
and produce unsatisfactory judgments during inference. Motivated by this, we
argue that a good similarity model should consider the semantic discrepancies
with awareness of the uncertainty to better deal with ambiguous images for more
robust training. To achieve this, we propose to represent an image using not
only a semantic embedding but also an accompanying uncertainty embedding, which
describes the semantic characteristics and ambiguity of an image, respectively.
We further propose an introspective similarity metric to make similarity
judgments between images considering both their semantic differences and
ambiguities. The gradient analysis of the proposed metric shows that it enables
the model to learn at an adaptive and slower pace to deal with the uncertainty
during training. The proposed IDML framework improves the performance of deep
metric learning through uncertainty modeling and attains state-of-the-art
results on the widely used CUB-200-2011, Cars196, and Stanford Online Products
datasets for image retrieval and clustering. We further provide an in-depth
analysis of our framework to demonstrate the effectiveness and reliability of
IDML. Code: https://github.com/wzzheng/IDML.
- Abstract(参考訳): 本稿では,不確実性を考慮した画像比較のための内観的深度学習(IDML)フレームワークを提案する。
従来のディープメトリック学習法は、画像の意味的特徴を記述するために識別的埋め込みの学習に焦点を当てており、ノイズや意味的曖昧性に起因する各画像の不確実性の存在を無視している。
これらの不確実性を認識しないトレーニングは、トレーニング中に注釈付きラベルを過度に適合させ、推論中に不満足な判断を下す。
このことから,良質な類似性モデルでは,不確実性に対する認識と意味的相違を考慮し,より強固なトレーニングのために曖昧な画像を扱うべきだと論じた。
そこで本研究では,画像の意味的特徴とあいまいさをそれぞれ記述した,意味的埋め込みだけでなく付随する不確実性埋め込みを用いた画像表現を提案する。
さらに,その意味的差異とあいまいさの両方を考慮し,画像間の類似性判定を行うイントロスペクティブ類似度尺度を提案する。
提案するメトリックの勾配解析により,モデルが適応的かつ遅いペースで学習し,トレーニング中の不確実性に対処できることを示す。
提案したIDMLフレームワークは、不確実性モデリングによる深度メトリック学習の性能を改善し、画像検索とクラスタリングのためのCUB-200-2011、Cars196、Stanford Online Productsデータセットの最先端結果を得る。
さらに,IDMLの有効性と信頼性を示すために,フレームワークの詳細な分析を行う。
コード: https://github.com/wzzheng/idml。
関連論文リスト
- Annotation Cost-Efficient Active Learning for Deep Metric Learning Driven Remote Sensing Image Retrieval [3.2109665109975696]
ANNEALは、類似した、異種のイメージペアで構成された、小さくて情報的なトレーニングセットを作成することを目的としている。
不確実性と多様性の基準を組み合わせることにより、画像対の情報性を評価する。
このアノテート方式は、ランド・ユース・ランド・カバー・クラスラベルによるアノテート画像と比較して、アノテーションコストを著しく削減する。
論文 参考訳(メタデータ) (2024-06-14T15:08:04Z) - Hyp-UML: Hyperbolic Image Retrieval with Uncertainty-aware Metric
Learning [8.012146883983227]
メトリクス学習は画像検索と分類の訓練において重要な役割を果たしている。
双曲的埋め込みは階層的なデータ構造を表現するのにより効果的である。
本稿では,一般的なコントラスト学習と従来のマージンに基づく距離学習の2種類の不確実性を考慮した距離学習を提案する。
論文 参考訳(メタデータ) (2023-10-12T15:00:06Z) - Hierarchical Uncertainty Estimation for Medical Image Segmentation
Networks [1.9564356751775307]
不確実性は、モデルトレーニングに使用される画像(ノイズ)と手動アノテーション(ヒューマンエラーとバイアス)の両方に存在する。
本稿では,複数のレベルで不確かさを推定する簡易かつ効果的な手法を提案する。
U-netのようなディープラーニングセグメンテーションネットワークは,高いセグメンテーション性能を実現することができることを示す。
論文 参考訳(メタデータ) (2023-08-16T16:09:23Z) - Introspective Deep Metric Learning for Image Retrieval [80.29866561553483]
良好な類似性モデルは、より堅牢なトレーニングのために曖昧なイメージをよりよく扱うように注意しながら、意味的な相違を考慮すべきである、と我々は主張する。
本稿では,画像の意味的特徴とあいまいさを記述した,意味的埋め込みだけでなく,付随する不確実性埋め込みを用いて画像を表現することを提案する。
提案したIDMLフレームワークは,不確実性モデリングによるディープメトリック学習の性能向上を実現し,広く使用されているCUB-200-2011,Cars196,Stanford Online Productsデータセットの最先端結果を得る。
論文 参考訳(メタデータ) (2022-05-09T17:51:44Z) - Dense Contrastive Visual-Linguistic Pretraining [53.61233531733243]
画像とテキストを共同で表現するマルチモーダル表現学習手法が提案されている。
これらの手法は,大規模マルチモーダル事前学習から高レベルな意味情報を取得することにより,優れた性能を実現する。
そこで本稿では,非バイアスのDense Contrastive Visual-Linguistic Pretrainingを提案する。
論文 参考訳(メタデータ) (2021-09-24T07:20:13Z) - Learning Contrastive Representation for Semantic Correspondence [150.29135856909477]
セマンティックマッチングのためのマルチレベルコントラスト学習手法を提案する。
画像レベルのコントラスト学習は、畳み込み特徴が類似したオブジェクト間の対応を見出すための鍵となる要素であることを示す。
論文 参考訳(メタデータ) (2021-09-22T18:34:14Z) - DeepSim: Semantic similarity metrics for learned image registration [6.789370732159177]
画像登録のための意味的類似度尺度を提案する。
提案手法は,学習ベース登録モデルの最適化を促進する,データセット固有の特徴を学習する。
論文 参考訳(メタデータ) (2020-11-11T12:35:07Z) - Uncertainty-Aware Few-Shot Image Classification [118.72423376789062]
ラベル付き限られたデータから新しいカテゴリを認識できる画像分類はほとんどない。
画像分類のための不確実性を考慮したFew-Shotフレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-09T12:26:27Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。