論文の概要: Indicative Image Retrieval: Turning Blackbox Learning into Grey
- arxiv url: http://arxiv.org/abs/2201.11898v1
- Date: Fri, 28 Jan 2022 02:21:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-31 14:51:33.984476
- Title: Indicative Image Retrieval: Turning Blackbox Learning into Grey
- Title(参考訳): 画像検索:ブラックボックス学習をグレーに変える
- Authors: Xulu Zhang (1), Zhenqun Yang (2), Hao Tian (1), Qing Li (3), Xiaoyong
Wei (1 and 3) ((1) Sichuan University, (2) Chinese University of Hong Kong,
(3) Hong Kong Polytechnic Univeristy)
- Abstract要約: 本稿では,深層学習における関連・マッチングモデリングの重要性を再考する。
その結果,表現学習を省略し,一致した証拠を直接モデル化することが可能であることが示唆された。
オックスフォード5kで97.77%(パリ6kで97.81%)の新記録を樹立した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning became the game changer for image retrieval soon after it was
introduced. It promotes the feature extraction (by representation learning) as
the core of image retrieval, with the relevance/matching evaluation being
degenerated into simple similarity metrics. In many applications, we need the
matching evidence to be indicated rather than just have the ranked list (e.g.,
the locations of the target proteins/cells/lesions in medical images). It is
like the matched words need to be highlighted in search engines. However, this
is not easy to implement without explicit relevance/matching modeling. The deep
representation learning models are not feasible because of their blackbox
nature. In this paper, we revisit the importance of relevance/matching modeling
in deep learning era with an indicative retrieval setting. The study shows that
it is possible to skip the representation learning and model the matching
evidence directly. By removing the dependency on the pre-trained models, it has
avoided a lot of related issues (e.g., the domain gap between classification
and retrieval, the detail-diffusion caused by convolution, and so on). More
importantly, the study demonstrates that the matching can be explicitly modeled
and backtracked later for generating the matching evidence indications. It can
improve the explainability of deep inference. Our method obtains a best
performance in literature on both Oxford-5k and Paris-6k, and sets a new record
of 97.77% on Oxford-5k (97.81% on Paris-6k) without extracting any deep
features.
- Abstract(参考訳): ディープラーニングは、導入後すぐに画像検索のためのゲームチェンジャーとなった。
画像検索のコアとして特徴抽出(表現学習による)を促進し、関連性/マッチング評価を単純な類似度メトリクスに分解する。
多くのアプリケーションでは、ランク付けされたリスト(例えば、医療画像中の標的タンパク質/細胞/レシオンの位置)を持つのではなく、一致する証拠を示す必要がある。
一致した単語を検索エンジンでハイライトする必要があるように思える。
しかし、明示的な適合/マッチングモデリングなしでは、これは実装が容易ではない。
深層表現学習モデルはブラックボックスの性質のため実現不可能である。
本稿では,深層学習における関連・マッチングモデリングの重要性を再考する。
本研究は,表現学習を省略し,一致した証拠を直接モデル化することは可能であることを示す。
事前学習されたモデルへの依存を取り除くことで、多くの関連する問題(例えば、分類と検索の間のドメインギャップ、畳み込みによる詳細拡散など)を避けてきた。
さらに重要なことに、この研究は一致した証拠を生成するために、マッチングを明示的にモデル化し、後でバックトラックすることができることを示している。
深い推論の説明可能性を向上させることができる。
本手法はオックスフォード5kとパリ6kの両文献で最高の性能を示し,オックスフォード5kでは97.77%(パリ6kでは97.81%)の新記録を,深い特徴を抽出することなく達成した。
関連論文リスト
- Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - Match me if you can: Semi-Supervised Semantic Correspondence Learning with Unpaired Images [76.47980643420375]
本稿では,意味的対応の学習に固有のデータ・ハングリー・マターが存在するという仮説に基づく。
我々は,機械の監督を通じて,ペア化されたキーポイントを確実に強化する単純な機械注釈器を実証する。
我々のモデルは,SPair-71k,PF-PASCAL,PF-WILLOWといった意味対応学習ベンチマークの最先端モデルを上回る。
論文 参考訳(メタデータ) (2023-11-30T13:22:15Z) - Active Mining Sample Pair Semantics for Image-text Matching [6.370886833310617]
本稿では,Active Mining Sample Pair Semantics Image-text matching model (AMSPS)と呼ばれる新しい画像テキストマッチングモデルを提案する。
3重項損失関数を持つコモンセンス学習モデルの1つの意味学習モードと比較して、AMSPSはアクティブな学習アイデアである。
論文 参考訳(メタデータ) (2023-11-09T15:03:57Z) - HomE: Homography-Equivariant Video Representation Learning [62.89516761473129]
マルチビュービデオの表現学習のための新しい手法を提案する。
提案手法は異なる視点間の暗黙的なマッピングを学習し,近隣の視点間のホモグラフィ関係を維持する表現空間を決定づける。
動作分類では,UCF101データセットの96.4%の3倍精度が得られた。
論文 参考訳(メタデータ) (2023-06-02T15:37:43Z) - Ranking Loss and Sequestering Learning for Reducing Image Search Bias in
Histopathology [0.6595290783361959]
本稿では,画像検索性能を改善するための2つの新しいアイデアを提案する。
まず、ランキング損失関数を用いて特徴抽出を検索のマッチング指向性に向けて誘導する。
第2に,特徴抽出の一般化を促進するために,選択学習の概念を導入する。
論文 参考訳(メタデータ) (2023-04-15T03:38:09Z) - Attribute-Guided Multi-Level Attention Network for Fine-Grained Fashion Retrieval [27.751399400911932]
本稿では,細粒度ファッション検索のための属性誘導型マルチレベルアテンションネットワーク(AG-MAN)を提案する。
具体的には、まず事前訓練された特徴抽出器を拡張し、マルチレベル画像埋め込みをキャプチャする。
そこで本研究では,同じ属性を持つ画像と異なる値を持つ画像とを同一のクラスに分類する分類手法を提案する。
論文 参考訳(メタデータ) (2022-12-27T05:28:38Z) - Spuriosity Rankings: Sorting Data to Measure and Mitigate Biases [62.54519787811138]
本稿では,突発的手がかりに依存したモデルバイアスを簡易かつ効果的に測定・緩和する手法を提案する。
我々は,解釈可能なネットワークの深部神経的特徴をベースとして,それらのクラス内の画像のランク付けを行う。
以上の結果から,素早い特徴依存によるモデルバイアスは,モデルがどのようにトレーニングされたかよりも,モデルがトレーニングされていることの影響がはるかに大きいことが示唆された。
論文 参考訳(メタデータ) (2022-12-05T23:15:43Z) - Learning to Model and Ignore Dataset Bias with Mixed Capacity Ensembles [66.15398165275926]
本稿では,データセット固有のパターンを自動的に検出・無視する手法を提案する。
我々の方法は、より高い容量モデルでアンサンブルで低容量モデルを訓練する。
視覚的質問応答データセットの10ポイントゲインを含む,すべての設定の改善を示す。
論文 参考訳(メタデータ) (2020-11-07T22:20:03Z) - Sharing Matters for Generalization in Deep Metric Learning [22.243744691711452]
本研究は,アノテーションやデータトレーニングを必要とせずに,クラスを分離した特徴を学習する方法を検討する。
我々のアプローチを新しいトリプルトサンプリング戦略として定式化することにより、最近のランキング損失フレームワークに容易に適用できる。
論文 参考訳(メタデータ) (2020-04-12T10:21:15Z) - Rethinking Few-Shot Image Classification: a Good Embedding Is All You
Need? [72.00712736992618]
メタトレーニングセット上で教師付きあるいは自己教師型表現を学習する単純なベースラインが、最先端の数ショット学習方法より優れていることを示す。
追加の増量は自己蒸留によって達成できる。
我々は,この発見が,画像分類ベンチマークとメタ学習アルゴリズムの役割を再考する動機となっていると考えている。
論文 参考訳(メタデータ) (2020-03-25T17:58:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。