論文の概要: A Metric Learning Reality Check
- arxiv url: http://arxiv.org/abs/2003.08505v3
- Date: Wed, 16 Sep 2020 01:18:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 12:58:53.143250
- Title: A Metric Learning Reality Check
- Title(参考訳): メトリクス学習のリアリティチェック
- Authors: Kevin Musgrave, Serge Belongie, Ser-Nam Lim
- Abstract要約: この分野を詳しく見て、これが実際に真実かどうかを確認します。
多数のメートル法学習論文の実験手法に欠陥を見いだし、時間経過による実際の改善が極端に限界であったことを示す。
- 参考スコア(独自算出の注目度): 37.03614011735927
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep metric learning papers from the past four years have consistently
claimed great advances in accuracy, often more than doubling the performance of
decade-old methods. In this paper, we take a closer look at the field to see if
this is actually true. We find flaws in the experimental methodology of
numerous metric learning papers, and show that the actual improvements over
time have been marginal at best.
- Abstract(参考訳): 過去4年間のディープメトリック学習論文は、一貫して精度の大幅な進歩を主張しており、しばしば10年前の方法のパフォーマンスを2倍に上回っている。
この論文では、実際にこれが真実かどうかをよく見ていきます。
多数のメートル法学習論文の実験手法に欠陥を見出した結果,時間経過とともに改善が進んでいることが示唆された。
関連論文リスト
- LTRL: Boosting Long-tail Recognition via Reflective Learning [12.784186450718652]
本稿では,ロングテール認識の処理において,リフレクション学習と呼ばれる新しい学習パラダイムを提案する。
本手法は,学習中の過去の予測の見直し,クラス間の特徴関係の要約と活用,損失関数の勾配競合の補正という3つのプロセスを統合する。
論文 参考訳(メタデータ) (2024-07-17T13:51:49Z) - Learning Diverse Policies with Soft Self-Generated Guidance [2.9602904918952695]
非ゼロ報酬がほとんど得られないため、スパースと偽りの報酬による強化学習は困難である。
本稿では,より高速で効率的なオンラインRLを実現するために,多種多様な過去の軌跡を利用する手法を開発した。
論文 参考訳(メタデータ) (2024-02-07T02:53:50Z) - Curriculum for Crowd Counting -- Is it Worthy? [2.462045767312954]
近年,ディープラーニングモデルのトレーニングのために,Curriculum Learning(CL)と呼ばれる直感的なテクニックが導入されている。
本研究では, 密度推定法を用いて, 学童数測定におけるカリキュラム学習の影響について検討する。
実験の結果,カリキュラム学習はモデル学習性能を改善し,収束時間を短縮することがわかった。
論文 参考訳(メタデータ) (2024-01-15T10:46:01Z) - Continual Learning: Applications and the Road Forward [119.03464063873407]
継続的学習は、機械学習モデルが、過去に学んだことを忘れずに知識を蓄積することで、新しいデータを継続的に学習できるようにすることを目的としている。
この研究は、2023年3月のDagtuhl Seminar on Deep Continual Learningで著者らが行った多くの議論の結果である。
論文 参考訳(メタデータ) (2023-11-20T16:40:29Z) - Forgetting before Learning: Utilizing Parametric Arithmetic for
Knowledge Updating in Large Language Models [53.52344131257681]
本稿では,F-Learningと呼ばれるファインチューニングのための新しいパラダイムを提案する。これはパラメトリック算術を用いて,古い知識の忘れと新しい知識の学習を容易にする。
2つの公開データセットによる実験結果から、提案したFラーニングは、完全な微調整とLoRA微調整の両方の知識更新性能を向上させることが明らかに示されている。
論文 参考訳(メタデータ) (2023-11-14T09:12:40Z) - Memory-Based Dual Gaussian Processes for Sequential Learning [26.22552882103996]
提案手法は,最近提案されたデュアルスパース変分GPを用いて,これらの誤差をすべてチェックする手法である。
提案手法は,過去のデータのメモリを積極的に構築・更新することで,汎用可能性の正確な推測を可能にし,学習を改善する。
論文 参考訳(メタデータ) (2023-06-06T10:34:03Z) - Weighted Ensemble Self-Supervised Learning [67.24482854208783]
組み立ては、モデルパフォーマンスを高めるための強力なテクニックであることが証明されている。
我々は,データ依存型重み付きクロスエントロピー損失を許容するフレームワークを開発した。
提案手法は、ImageNet-1K上での複数の評価指標において、両者に優れる。
論文 参考訳(メタデータ) (2022-11-18T02:00:17Z) - Faster Meta Update Strategy for Noise-Robust Deep Learning [62.08964100618873]
我々は,メタグラデーションの最も高価なステップをより高速なレイヤワイズ近似に置き換えるために,新しいファMUS(Faster Meta Update Strategy)を導入する。
本手法は,同等あるいはさらに優れた一般化性能を維持しつつ,トレーニング時間の3分の2を節約できることを示す。
論文 参考訳(メタデータ) (2021-04-30T16:19:07Z) - Towards Few-Shot Fact-Checking via Perplexity [40.11397284006867]
そこで本研究では,言語モデルの強力な伝達学習能力をパープレキシティスコアで活用する新しい手法を提案する。
私たちの方法論は、F1-Macroメトリックの絶対10%以上のメジャークラスベースラインをすでに上回ることができます。
COVID-19に関連する2つの新しいファクトチェックデータセットを構築し、公開します。
論文 参考訳(メタデータ) (2021-03-17T09:43:19Z) - Provably Robust Metric Learning [98.50580215125142]
既存のメトリクス学習アルゴリズムは、ユークリッド距離よりもロバストなメトリクスをもたらすことを示す。
対向摂動に対して頑健なマハラノビス距離を求めるための新しい距離学習アルゴリズムを提案する。
実験結果から,提案アルゴリズムは証明済みの堅牢な誤りと経験的堅牢な誤りの両方を改善した。
論文 参考訳(メタデータ) (2020-06-12T09:17:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。