論文の概要: Towards Improved and Interpretable Deep Metric Learning via Attentive
Grouping
- arxiv url: http://arxiv.org/abs/2011.08877v3
- Date: Wed, 25 Aug 2021 05:42:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 17:06:15.285681
- Title: Towards Improved and Interpretable Deep Metric Learning via Attentive
Grouping
- Title(参考訳): 注意的グループ化による深層学習の改善と解釈に向けて
- Authors: Xinyi Xu, Zhengyang Wang, Cheng Deng, Hao Yuan, and Shuiwang Ji
- Abstract要約: グループ化は、様々な特徴の計算にディープ・メトリック・ラーニングでよく用いられてきた。
本稿では,任意のメトリクス学習フレームワークと柔軟に統合可能な,改良された解釈可能なグループ化手法を提案する。
- 参考スコア(独自算出の注目度): 103.71992720794421
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Grouping has been commonly used in deep metric learning for computing diverse
features. However, current methods are prone to overfitting and lack
interpretability. In this work, we propose an improved and interpretable
grouping method to be integrated flexibly with any metric learning framework.
Our method is based on the attention mechanism with a learnable query for each
group. The query is fully trainable and can capture group-specific information
when combined with the diversity loss. An appealing property of our method is
that it naturally lends itself interpretability. The attention scores between
the learnable query and each spatial position can be interpreted as the
importance of that position. We formally show that our proposed grouping method
is invariant to spatial permutations of features. When used as a module in
convolutional neural networks, our method leads to translational invariance. We
conduct comprehensive experiments to evaluate our method. Our quantitative
results indicate that the proposed method outperforms prior methods
consistently and significantly across different datasets, evaluation metrics,
base models, and loss functions. For the first time to the best of our
knowledge, our interpretation results clearly demonstrate that the proposed
method enables the learning of distinct and diverse features across groups. The
code is available on https://github.com/XinyiXuXD/DGML-master.
- Abstract(参考訳): グループ化は、様々な特徴の計算にディープメトリック学習でよく使われている。
しかし、現在の手法は過度に適合し、解釈可能性に欠ける。
本研究では,任意の計量学習フレームワークと柔軟に統合可能な改良型,解釈可能なグループ化手法を提案する。
本手法は,グループ毎に学習可能な問い合わせを行うアテンション機構に基づいている。
クエリは完全にトレーニング可能で、多様性の喪失と組み合わせてグループ固有の情報をキャプチャすることができる。
この手法の魅力は、自然に解釈可能性を高めることである。
学習可能なクエリと各空間位置の間の注意スコアは、その位置の重要性として解釈できる。
提案手法は,特徴の空間的置換に不変であることを示す。
畳み込みニューラルネットワークのモジュールとして使用される場合,本手法は翻訳不変性をもたらす。
本手法を評価するための総合的な実験を行う。
その結果,提案手法は,異なるデータセット,評価指標,ベースモデル,損失関数に対して,従来手法よりも連続的に,有意に優れていたことが示唆された。
我々の知識を最大限に活用するために,提案手法がグループ間で異なる特徴の学習を可能にしていることを明確に証明した。
コードはhttps://github.com/XinyiXuXD/DGML-masterで入手できる。
関連論文リスト
- Achieving More with Less: A Tensor-Optimization-Powered Ensemble Method [53.170053108447455]
アンサンブル学習(英: Ensemble learning)は、弱い学習者を利用して強力な学習者を生み出す方法である。
我々は、マージンの概念を活かした滑らかで凸な目的関数を設計し、強力な学習者がより差別的になるようにした。
そして、我々のアルゴリズムを、多数のデータセットの10倍の大きさのランダムな森林や他の古典的な手法と比較する。
論文 参考訳(メタデータ) (2024-08-06T03:42:38Z) - Equivariance with Learned Canonicalization Functions [77.32483958400282]
正規化を行うために小さなニューラルネットワークを学習することは、事前定義を使用することよりも優れていることを示す。
実験の結果,正準化関数の学習は多くのタスクで同変関数を学習する既存の手法と競合することがわかった。
論文 参考訳(メタデータ) (2022-11-11T21:58:15Z) - Finding Significant Features for Few-Shot Learning using Dimensionality
Reduction [0.0]
このモジュールは、計量学習法により与えられる類似度関数を、分類のためのより識別的な特徴を持つようにすることで、精度の向上を支援する。
提案手法は,MiniImageNetデータセットにおけるメトリック学習ベースラインの精度を約2%向上させる。
論文 参考訳(メタデータ) (2021-07-06T16:36:57Z) - Meta-learning representations for clustering with infinite Gaussian
mixture models [39.56814839510978]
クラスタリング性能を向上させるためにニューラルネットワークを訓練するメタラーニング手法を提案する。
提案手法は,非ラベルデータとは異なるラベルデータを用いた知識メタ学習を用いて,未ラベルデータをクラスタ化することができる。
論文 参考訳(メタデータ) (2021-03-01T02:05:31Z) - Interpretable Multi-dataset Evaluation for Named Entity Recognition [110.64368106131062]
本稿では,名前付きエンティティ認識(NER)タスクに対する一般的な評価手法を提案する。
提案手法は,モデルとデータセットの違いと,それらの間の相互作用を解釈することを可能にする。
分析ツールを利用可能にすることで、将来の研究者が同様の分析を実行し、この分野の進歩を促進することができる。
論文 参考訳(メタデータ) (2020-11-13T10:53:27Z) - Fast Few-Shot Classification by Few-Iteration Meta-Learning [173.32497326674775]
数ショット分類のための高速な最適化に基づくメタラーニング手法を提案する。
我々の戦略はメタ学習において学習すべき基礎学習者の目的の重要な側面を可能にする。
我々は、我々のアプローチの速度と効果を実証し、総合的な実験分析を行う。
論文 参考訳(メタデータ) (2020-10-01T15:59:31Z) - Spherical Feature Transform for Deep Metric Learning [58.35971328774927]
本研究は,新しい球面特徴変換手法を提案する。
これは、クラス間の同一共分散の仮定を、超球面上の異なるクラスの類似共分散の仮定に緩和する。
本研究では,2つの異なる変換間の関係について,簡便かつ効果的な学習法と深度解析を行う。
論文 参考訳(メタデータ) (2020-08-04T11:32:23Z) - Inverse Feature Learning: Feature learning based on Representation
Learning of Error [12.777440204911022]
本稿では,新しい教師付き特徴学習手法としての逆特徴学習を提案し,誤り表現アプローチに基づく分類のための高レベル特徴セットを学習する。
提案手法は,いくつかの一般的なデータセットに対する最先端の分類手法と比較して,性能が著しく向上する。
論文 参考訳(メタデータ) (2020-03-08T00:22:26Z) - Heterogeneous Transfer Learning in Ensemble Clustering [0.0]
類似したラベル付きデータが利用できるクラスタリング問題を考える。
本手法は,データの構造的特徴を記述したメタ機能の構築に基づく。
モンテカルロモデルを用いた実験により,その効率性が確認された。
論文 参考訳(メタデータ) (2020-01-20T16:03:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。