論文の概要: Rank-based Decomposable Losses in Machine Learning: A Survey
- arxiv url: http://arxiv.org/abs/2207.08768v2
- Date: Wed, 12 Apr 2023 15:21:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-13 19:05:32.512106
- Title: Rank-based Decomposable Losses in Machine Learning: A Survey
- Title(参考訳): 機械学習におけるランクベースの分解可能な損失:調査
- Authors: Shu Hu, Xin Wang, Siwei Lyu
- Abstract要約: この調査は、機械学習におけるランクベースの分解可能な損失の体系的で包括的なレビューを提供する。
我々は、集合的損失と個人的損失の観点に従う、損失関数の新しい分類法を提供する。
ランクに基づく集合的損失とランクに基づく個人的損失の一般公式について述べる。
- 参考スコア(独自算出の注目度): 47.547653738853406
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent works have revealed an essential paradigm in designing loss functions
that differentiate individual losses vs. aggregate losses. The individual loss
measures the quality of the model on a sample, while the aggregate loss
combines individual losses/scores over each training sample. Both have a common
procedure that aggregates a set of individual values to a single numerical
value. The ranking order reflects the most fundamental relation among
individual values in designing losses. In addition, decomposability, in which a
loss can be decomposed into an ensemble of individual terms, becomes a
significant property of organizing losses/scores. This survey provides a
systematic and comprehensive review of rank-based decomposable losses in
machine learning. Specifically, we provide a new taxonomy of loss functions
that follows the perspectives of aggregate loss and individual loss. We
identify the aggregator to form such losses, which are examples of set
functions. We organize the rank-based decomposable losses into eight
categories. Following these categories, we review the literature on rank-based
aggregate losses and rank-based individual losses. We describe general formulas
for these losses and connect them with existing research topics. We also
suggest future research directions spanning unexplored, remaining, and emerging
issues in rank-based decomposable losses.
- Abstract(参考訳): 最近の研究で、個々の損失と集約損失を区別する損失関数を設計する上で不可欠なパラダイムが明らかになった。
個々の損失はサンプルのモデルの品質を測定し、集合的損失は各トレーニングサンプルに対する個々の損失/スコアを結合する。
どちらも、個々の値の集合を単一の数値に集約する共通の手順を持っている。
ランキング順は、設計損失における個々の値の最も基本的な関係を反映している。
さらに、損失を個々の項の集合に分解できる分解可能性(decomposability)は、損失/スコアを整理する重要な特性となる。
この調査は、機械学習におけるランクベースの分解可能な損失の体系的で包括的なレビューを提供する。
具体的には,集合的損失と個人的損失の観点に従う損失関数の新しい分類法を提案する。
集合関数の例であるそのような損失を形成するためにアグリゲータを識別する。
ランクベースの分解可能な損失を8つのカテゴリに分類する。
これらのカテゴリに従い、ランクベース総損失とランクベースの個人損失に関する文献をレビューする。
これらの損失の一般式を記述し,既存の研究課題と結びつける。
また,非探索的・残存的・新たな課題にまたがる今後の研究の方向性も提案する。
関連論文リスト
- Robust Loss Functions for Training Decision Trees with Noisy Labels [4.795403008763752]
我々は、頑健な学習アルゴリズムに繋がる損失関数に着目し、ノイズの多いラベル付きデータを用いて決定木を訓練することを検討する。
まず、決定木学習の文脈において、既存の損失関数のロバスト性に関する新しい理論的知見を提供する。
第2に,分散損失と呼ばれるロバストな損失関数を構築するためのフレームワークを導入する。
論文 参考訳(メタデータ) (2023-12-20T11:27:46Z) - The Group Loss++: A deeper look into group loss for deep metric learning [65.19665861268574]
グループ損失 (Group Loss) は、グループの全サンプルに埋め込まれた類似性を強制する微分可能なラベルプロパゲーション法に基づく損失関数である。
4つのデータセットでクラスタリングと画像検索の最先端結果を示し、2人の再識別データセットで競合結果を示す。
論文 参考訳(メタデータ) (2022-04-04T14:09:58Z) - Ensemble of Loss Functions to Improve Generalizability of Deep Metric
Learning methods [0.609170287691728]
本稿では,共有機能抽出器上に構築された異なる損失を結合する新しい手法を提案する。
我々は,従来のゼロショットラーニング(ZSL)設定において,マシンビジョン領域から一般的なデータセットについて評価を行った。
論文 参考訳(メタデータ) (2021-07-02T15:19:46Z) - Auto Seg-Loss: Searching Metric Surrogates for Semantic Segmentation [56.343646789922545]
そこで本研究では,各計量に対する相異なるサロゲート損失を探索することにより,計量固有損失関数の設計を自動化することを提案する。
PASCAL VOCとCityscapesの実験では、探索されたサロゲート損失は手動で設計した損失関数よりも優れていた。
論文 参考訳(メタデータ) (2020-10-15T17:59:08Z) - Learning by Minimizing the Sum of Ranked Range [58.24935359348289]
本稿では,学習目標を定式化するための一般的なアプローチとして,ランキング範囲(SoRR)の和を紹介した。
ランク付き範囲は、実数の集合のソートされた値の連続的なシーケンスである。
我々は,SoRRフレームワークの最小化のための機械学習における2つの応用,すなわち,バイナリ分類のためのAoRR集約損失とマルチラベル/マルチクラス分類のためのTKML個人損失について検討する。
論文 参考訳(メタデータ) (2020-10-05T01:58:32Z) - An Equivalence between Loss Functions and Non-Uniform Sampling in
Experience Replay [72.23433407017558]
非一様サンプルデータを用いて評価された損失関数は、別の一様サンプルデータ損失関数に変換可能であることを示す。
驚いたことに、いくつかの環境では、PERは経験的パフォーマンスに影響を与えることなく、この新たな損失関数に完全に置き換えることができる。
論文 参考訳(メタデータ) (2020-07-12T17:45:24Z) - Rethinking preventing class-collapsing in metric learning with
margin-based losses [81.22825616879936]
メトリクス学習は、視覚的に類似したインスタンスが近接し、異なるインスタンスが分離した埋め込みを求める。
マージンベースの損失は、クラスの全サンプルを埋め込み空間の単一点に投影する傾向がある。
そこで本研究では,各サンプルが最寄りの同一クラスをバッチで選択するように,埋め込み損失の簡易な修正を提案する。
論文 参考訳(メタデータ) (2020-06-09T09:59:25Z) - Segmentation Loss Odyssey [10.051935123214355]
既存の損失関数を4つの意味のあるカテゴリに分類する体系的な分類法を提案する。
また,従来の領域ベースと近年の境界ベース損失関数との関係についても検討する。
論文 参考訳(メタデータ) (2020-05-27T16:00:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。