論文の概要: Loss Functions and Metrics in Deep Learning
- arxiv url: http://arxiv.org/abs/2307.02694v2
- Date: Wed, 6 Sep 2023 16:53:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 18:48:15.116861
- Title: Loss Functions and Metrics in Deep Learning
- Title(参考訳): ディープラーニングにおける損失関数とメトリクス
- Authors: Juan Terven, Diana M. Cordova-Esparza, Alfonso Ramirez-Pedraza, Edgar
A. Chavez-Urbiola
- Abstract要約: 本稿では,ディープラーニングにおける損失関数と性能測定について概説する。
それぞれの手法の利点と限界について検討し,様々なディープラーニング問題への応用について解説する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One of the essential components of deep learning is the choice of the loss
function and performance metrics used to train and evaluate models. This paper
reviews the most prevalent loss functions and performance measurements in deep
learning. We examine the benefits and limits of each technique and illustrate
their application to various deep-learning problems. Our review aims to give a
comprehensive picture of the different loss functions and performance
indicators used in the most common deep learning tasks and help practitioners
choose the best method for their specific task.
- Abstract(参考訳): ディープラーニングの重要なコンポーネントの1つは、モデルのトレーニングと評価に使用される損失関数とパフォーマンスメトリクスの選択である。
本稿では,ディープラーニングにおける損失関数と性能測定について概説する。
それぞれの手法の利点と限界について検討し,様々なディープラーニング問題への応用について解説する。
本レビューは,最も一般的なディープラーニングタスクで使用される損失関数とパフォーマンス指標の包括的図を示し,実践者が特定のタスクに最適な方法を選択するのを助けることを目的とする。
関連論文リスト
- Fast and Efficient Local Search for Genetic Programming Based Loss
Function Learning [12.581217671500887]
本稿では,タスクとモデルに依存しない損失関数学習のためのメタラーニングフレームワークを提案する。
その結果, 学習した損失関数は, 収束性, サンプル効率, グラフ化, コンピュータビジョン, 自然言語処理問題に対する推論性能の向上をもたらすことがわかった。
論文 参考訳(メタデータ) (2024-03-01T02:20:04Z) - Loss Functions in the Era of Semantic Segmentation: A Survey and Outlook [11.119967679567587]
ロス関数は、ディープラーニングベースのセグメンテーションアルゴリズムの開発に不可欠である。
画像分割において、これらの損失関数がどのようにカスタマイズされ、どのように活用されるかについて、新しい分類法とレビューを提供する。
本稿では,現在の課題を特定し,今後の研究機会を明らかにすることで,このレビューを締めくくる。
論文 参考訳(メタデータ) (2023-12-08T22:06:05Z) - Generalization Performance of Transfer Learning: Overparameterized and
Underparameterized Regimes [61.22448274621503]
現実世界のアプリケーションでは、タスクは部分的な類似性を示し、あるアスペクトは似ているが、他のアスペクトは異なるか無関係である。
本研究は,パラメータ伝達の2つの選択肢を包含して,多種多様な移動学習について検討する。
一般化性能を向上させるために,共通部分とタスク特化部分の特徴数を決定するための実践的ガイドラインを提供する。
論文 参考訳(メタデータ) (2023-06-08T03:08:40Z) - Online Loss Function Learning [13.744076477599707]
ロス関数学習は、機械学習モデルの損失関数を設計するタスクを自動化することを目的としている。
基本モデルパラメータへの更新毎に,損失関数をオンラインに適応的に更新する新しい損失関数学習手法を提案する。
論文 参考訳(メタデータ) (2023-01-30T19:22:46Z) - A survey and taxonomy of loss functions in machine learning [60.41650195728953]
ほとんどの最先端の機械学習技術は、損失関数の最適化を中心に進化している。
この調査は、初心者と高度な機械学習実践者の両方にとって最も重要な損失関数の参照を提供することを目的としている。
論文 参考訳(メタデータ) (2023-01-13T14:38:24Z) - Learning Symbolic Model-Agnostic Loss Functions via Meta-Learning [13.781754717686416]
本稿では,ハイブリッド型ニューロシンボリックサーチ手法を用いて,モデルに依存しない損失関数を学習するためのメタラーニングフレームワークを提案する。
その結果,提案手法により発見されたメタ学習損失関数は,クロスエントロピー損失と最先端の損失関数学習の両方よりも優れていた。
論文 参考訳(メタデータ) (2022-09-19T10:29:01Z) - Meta-Learning with Task-Adaptive Loss Function for Few-Shot Learning [50.59295648948287]
数ショットの学習シナリオでは、新しい目に見えない例を一般化し、うまく実行するのが課題だ。
各タスクに適応する損失関数を備えた新しいメタ学習フレームワークを導入する。
提案フレームワークはMeta-Learning with Task-Adaptive Loss Function (MeTAL) と名付けられ,様々な領域における有効性と柔軟性を示す。
論文 参考訳(メタデータ) (2021-10-08T06:07:21Z) - AutoLoss-Zero: Searching Loss Functions from Scratch for Generic Tasks [78.27036391638802]
AutoLoss-Zeroは、ジェネリックタスクのスクラッチから損失関数を検索する最初のフレームワークである。
探索効率を向上させるために、損失低減プロトコルと勾配等価性チェック戦略を開発する。
様々なコンピュータビジョンタスクにおける実験により、検索損失関数は既存の損失関数と同等かそれ以上かが示されている。
論文 参考訳(メタデータ) (2021-03-25T17:59:09Z) - Auto Seg-Loss: Searching Metric Surrogates for Semantic Segmentation [56.343646789922545]
そこで本研究では,各計量に対する相異なるサロゲート損失を探索することにより,計量固有損失関数の設計を自動化することを提案する。
PASCAL VOCとCityscapesの実験では、探索されたサロゲート損失は手動で設計した損失関数よりも優れていた。
論文 参考訳(メタデータ) (2020-10-15T17:59:08Z) - Influence Functions in Deep Learning Are Fragile [52.31375893260445]
影響関数は、テスト時間予測におけるサンプルの効果を近似する。
影響評価は浅いネットワークでは かなり正確です
ヘッセン正則化は、高品質な影響推定を得るために重要である。
論文 参考訳(メタデータ) (2020-06-25T18:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。