論文の概要: Distance-Ratio-Based Formulation for Metric Learning
- arxiv url: http://arxiv.org/abs/2201.08676v1
- Date: Fri, 21 Jan 2022 12:45:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-24 13:07:44.080541
- Title: Distance-Ratio-Based Formulation for Metric Learning
- Title(参考訳): 距離比に基づく距離学習の定式化
- Authors: Hyeongji Kim, Pekka Parviainen, Ketil Malde
- Abstract要約: メトリック学習では、同じクラスを持つデータポイントが互いに近いように埋め込みを学ぶことが目標である。
本稿では距離に基づく距離学習(DR)の定式化を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In metric learning, the goal is to learn an embedding so that data points
with the same class are close to each other and data points with different
classes are far apart. We propose a distance-ratio-based (DR) formulation for
metric learning. Like softmax-based formulation for metric learning, it models
$p(y=c|x')$, which is a probability that a query point $x'$ belongs to a class
$c$. The DR formulation has two useful properties. First, the corresponding
loss is not affected by scale changes of an embedding. Second, it outputs the
optimal (maximum or minimum) classification confidence scores on representing
points for classes. To demonstrate the effectiveness of our formulation, we
conduct few-shot classification experiments using softmax-based and DR
formulations on CUB and mini-ImageNet datasets. The results show that DR
formulation generally enables faster and more stable metric learning than the
softmax-based formulation. As a result, using DR formulation achieves improved
or comparable generalization performances.
- Abstract(参考訳): メトリック学習では、同じクラスを持つデータポイントが互いに近く、異なるクラスを持つデータポイントが遠く離れるように埋め込みを学ぶことが目標である。
本稿では,距離比に基づく距離比式(DR)を提案する。
計量学習のためのソフトマックスベースの定式化と同様に、$p(y=c|x')$ をモデル化し、クエリポイント $x'$ がクラス $c$ に属する確率である。
dr製剤は2つの有用な性質を有する。
第一に、対応する損失は埋め込みのスケール変化の影響を受けない。
第二に、クラスを表すポイントに対して最適な(最大または最小)分類信頼度スコアを出力する。
提案手法の有効性を実証するため,cubおよびmini-imagenetデータセット上でsoftmaxおよびdrによる少ない分類実験を行った。
その結果,DR定式化はソフトマックス式よりも高速で安定なメートル法学習を可能にすることがわかった。
その結果、DR定式化を用いることで、改善または同等の一般化性能が得られる。
関連論文リスト
- Piecewise-Linear Manifolds for Deep Metric Learning [8.670873561640903]
教師なしの深度学習は、ラベルなしデータのみを使用して意味表現空間を学習することに焦点を当てる。
本稿では,各低次元線形片が点の小さな近傍でデータ多様体を近似して高次元データ多様体をモデル化することを提案する。
我々は、この類似度推定が、現在の最先端技術の類似度推定よりも基礎的真理と相関していることを実証的に示す。
論文 参考訳(メタデータ) (2024-03-22T06:22:20Z) - Querying Easily Flip-flopped Samples for Deep Active Learning [63.62397322172216]
アクティブラーニング(英: Active Learning)は、ラベルのないデータを戦略的に選択してクエリすることで、モデルの性能を向上させることを目的とした機械学習パラダイムである。
効果的な選択戦略の1つはモデルの予測の不確実性に基づくもので、サンプルがどの程度情報的であるかの尺度として解釈できる。
本稿では,予測されたラベルの不一致の最小確率として,最小不一致距離(LDM)を提案する。
論文 参考訳(メタデータ) (2024-01-18T08:12:23Z) - Machine Learning Capability: A standardized metric using case difficulty
with applications to individualized deployment of supervised machine learning [2.2060666847121864]
モデル評価は教師付き機械学習分類解析において重要な要素である。
アイテム応答理論(IRT)と機械学習を用いたコンピュータ適応テスト(CAT)は、最終分類結果とは無関係にデータセットをベンチマークすることができる。
論文 参考訳(メタデータ) (2023-02-09T00:38:42Z) - Hyperbolic Vision Transformers: Combining Improvements in Metric
Learning [116.13290702262248]
計量学習のための新しい双曲型モデルを提案する。
本手法のコアとなるのは、双曲空間にマッピングされた出力埋め込みを備えた視覚変換器である。
4つのデータセットに6つの異なる定式化を施したモデルの評価を行った。
論文 参考訳(メタデータ) (2022-03-21T09:48:23Z) - Adaptive Poincar\'e Point to Set Distance for Few-Shot Classification [30.84627437310717]
我々は,学習した集合に関連付けられた点と集合の間の距離を特徴付けるために,文脈対応の双曲的計量を学習する。
実験によって,このような測定値が外接点の存在下で得られることが示され,ベースラインモデルよりも明確な改善が達成される。
論文 参考訳(メタデータ) (2021-12-03T05:08:11Z) - X-model: Improving Data Efficiency in Deep Learning with A Minimax Model [78.55482897452417]
ディープラーニングにおける分類と回帰設定の両面でのデータ効率の向上を目標とする。
両世界の力を生かすために,我々は新しいX-モデルを提案する。
X-モデルは、特徴抽出器とタスク固有のヘッドの間でミニマックスゲームを行う。
論文 参考訳(メタデータ) (2021-10-09T13:56:48Z) - Enhanced Doubly Robust Learning for Debiasing Post-click Conversion Rate
Estimation [29.27760413892272]
クリック後の変換は、ユーザの好みを示す強いシグナルであり、レコメンデーションシステムを構築する上で有益である。
現在、ほとんどの既存の手法は、対実学習を利用してレコメンデーションシステムを破壊している。
本稿では,MRDR推定のための新しい二重学習手法を提案し,誤差計算を一般的なCVR推定に変換する。
論文 参考訳(メタデータ) (2021-05-28T06:59:49Z) - Attentional-Biased Stochastic Gradient Descent [74.49926199036481]
深層学習におけるデータ不均衡やラベルノイズ問題に対処するための証明可能な手法(ABSGD)を提案する。
本手法は運動量SGDの簡易な修正であり,各試料に個別の重み付けを行う。
ABSGDは追加コストなしで他の堅牢な損失と組み合わせられるほど柔軟である。
論文 参考訳(メタデータ) (2020-12-13T03:41:52Z) - Learning by Minimizing the Sum of Ranked Range [58.24935359348289]
本稿では,学習目標を定式化するための一般的なアプローチとして,ランキング範囲(SoRR)の和を紹介した。
ランク付き範囲は、実数の集合のソートされた値の連続的なシーケンスである。
我々は,SoRRフレームワークの最小化のための機械学習における2つの応用,すなわち,バイナリ分類のためのAoRR集約損失とマルチラベル/マルチクラス分類のためのTKML個人損失について検討する。
論文 参考訳(メタデータ) (2020-10-05T01:58:32Z) - Piecewise Linear Regression via a Difference of Convex Functions [50.89452535187813]
本稿では,データに対する凸関数(DC関数)の差を利用した線形回帰手法を提案する。
実際に実装可能であることを示すとともに,実世界のデータセット上で既存の回帰/分類手法に匹敵する性能を有することを実証的に検証した。
論文 参考訳(メタデータ) (2020-07-05T18:58:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。