論文の概要: Scope Loss for Imbalanced Classification and RL Exploration
- arxiv url: http://arxiv.org/abs/2308.04024v1
- Date: Tue, 8 Aug 2023 03:40:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-09 14:15:40.393591
- Title: Scope Loss for Imbalanced Classification and RL Exploration
- Title(参考訳): 不均衡分類とRL探索のためのスコープ損失
- Authors: Hasham Burhani, Xiao Qi Shi, Jonathan Jaegerman, Daniel Balicki
- Abstract要約: 本稿では,強化学習問題と教師付き分類問題との等価性を示す。
我々は、強化学習と教師付き分類のための新しい損失関数を導出する。
新たな損失関数であるScope Lossは、オーバーエクスプロイテーションやデータセットの不均衡によるパフォーマンス損失を防ぐために、勾配を調整する。
- 参考スコア(独自算出の注目度): 0.8602553195689513
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We demonstrate equivalence between the reinforcement learning problem and the
supervised classification problem. We consequently equate the exploration
exploitation trade-off in reinforcement learning to the dataset imbalance
problem in supervised classification, and find similarities in how they are
addressed. From our analysis of the aforementioned problems we derive a novel
loss function for reinforcement learning and supervised classification. Scope
Loss, our new loss function, adjusts gradients to prevent performance losses
from over-exploitation and dataset imbalances, without the need for any tuning.
We test Scope Loss against SOTA loss functions over a basket of benchmark
reinforcement learning tasks and a skewed classification dataset, and show that
Scope Loss outperforms other loss functions.
- Abstract(参考訳): 強化学習問題と教師付き分類問題との等価性を示す。
その結果,強化学習における探索的活用のトレードオフを教師付き分類におけるデータセットの不均衡問題と同一視し,その対処方法の類似性を見出した。
上記の問題の解析から,強化学習と教師付き分類のための新しい損失関数を導出する。
新たな損失関数であるScope Lossは、チューニングを必要とせずに、パフォーマンス損失のオーバーエクスプロイテーションやデータセットの不均衡を防止するために、勾配を調整する。
ベンチマーク強化学習タスクのバスケットとスキュー分類データセットを用いて、SOTA損失関数に対するスコープ損失を検証し、スコープ損失が他の損失関数よりも優れていることを示す。
関連論文リスト
- LEARN: An Invex Loss for Outlier Oblivious Robust Online Optimization [56.67706781191521]
敵は、学習者に未知の任意の数kの損失関数を破損させることで、外れ値を導入することができる。
我々は,任意の数kで損失関数を破損させることで,敵が外乱を発生させることができる,頑健なオンラインラウンド最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-12T17:08:31Z) - A fuzzy loss for ontology classification [0.0]
本稿では,ラベルに基づく損失と,不随意違反や不随意違反といった用語を併用したファジィ損失を提案する。
ファジィ損失は, 分類性能を低下させることなく, 整合性違反の数を大幅に削減できることを示す。
論文 参考訳(メタデータ) (2024-05-03T13:20:37Z) - Reduced Jeffries-Matusita distance: A Novel Loss Function to Improve
Generalization Performance of Deep Classification Models [0.0]
本稿では,深層分類モデルの学習における損失関数として,Reduced Jeffries-Matusitaという距離を導入する。
その結果、新しい距離測定はトレーニングプロセスを著しく安定化させ、一般化能力を高め、精度とF1スコアの指標におけるモデルの性能を向上させることを示した。
論文 参考訳(メタデータ) (2024-03-13T10:51:38Z) - OWAdapt: An adaptive loss function for deep learning using OWA operators [0.8437187555622164]
分類タスクにおけるディープラーニング性能を向上させるファジィ適応損失関数を提案する。
本稿では,ファジィ論理のパワーを活用して分類精度を向上させる手法を提案する。
本手法は、標準的なクロスエントロピーや焦点損失など、他の一般的な損失関数よりも優れている。
論文 参考訳(メタデータ) (2023-05-30T22:34:48Z) - Tuned Contrastive Learning [77.67209954169593]
そこで本研究では,TCL(Tuned Contrastive Learning)損失という,新たなコントラスト損失関数を提案する。
TCLはバッチ内の複数の正と負に一般化し、ハードな正とハードな負の勾配応答を調整および改善するためのパラメータを提供する。
我々は、TCLを自己教師付き設定に拡張する方法を示し、それを様々なSOTA自己教師型学習手法と経験的に比較する。
論文 参考訳(メタデータ) (2023-05-18T03:26:37Z) - A survey and taxonomy of loss functions in machine learning [51.35995529962554]
本稿では, 回帰, 分類, 生成モデル, ランキング, エネルギーベースモデリングなど, 主要なアプリケーションにまたがる最も広く使われている損失関数について概観する。
直感的な分類法で構築された43個の個別の損失関数を導入し,それらの理論的基礎,特性,最適な適用状況を明らかにした。
論文 参考訳(メタデータ) (2023-01-13T14:38:24Z) - Evaluating the Impact of Loss Function Variation in Deep Learning for
Classification [0.0]
損失関数は間違いなく、ニューラルネットワークにとって最も重要なハイパーパラメータの1つである。
ニューラルネットワークを教師付き分類設定で検討し、損失関数の選択がトレーニング結果に与える影響を分析する。
特定の損失関数は過度に最適に機能するが、我々の研究は、表現不足の損失が最先端の選択肢を大幅に上回っていることを実証的に示している。
論文 参考訳(メタデータ) (2022-10-28T09:10:10Z) - AutoBalance: Optimized Loss Functions for Imbalanced Data [38.64606886588534]
本稿では,2段階最適化フレームワークであるAutoBalanceを提案する。
具体的には、下層問題はモデル重みを訓練し、上層問題は、検証データに対して所望の目的を監視、最適化することにより損失関数を調整する。
我々の損失設計は、パラメトリックなクロスエントロピー損失と個別化されたデータ拡張スキームを用いて、クラス/グループをパーソナライズすることを可能にする。
論文 参考訳(メタデータ) (2022-01-04T15:53:23Z) - Center Prediction Loss for Re-identification [65.58923413172886]
我々は, 中心予測率に基づく新たな損失, すなわち, 試料が特徴空間の位置に位置しなければならず, そこから同一クラス標本の中心の位置を大まかに予測できることを示す。
今回の新たな損失により,クラス間サンプルの分離性が向上しつつ,クラス内分散制約がより柔軟になることを示す。
論文 参考訳(メタデータ) (2021-04-30T03:57:31Z) - Loss Function Discovery for Object Detection via Convergence-Simulation
Driven Search [101.73248560009124]
本稿では,効率的な収束シミュレーションによる進化的探索アルゴリズムCSE-Autolossを提案する。
一般的な検出器上での損失関数探索の広範囲な評価を行い、探索された損失の優れた一般化能力を検証した。
実験の結果, 2段検出器と1段検出器のmAPでは, 最適損失関数の組み合わせが1.1%と0.8%を上回っていることがわかった。
論文 参考訳(メタデータ) (2021-02-09T08:34:52Z) - An Equivalence between Loss Functions and Non-Uniform Sampling in
Experience Replay [72.23433407017558]
非一様サンプルデータを用いて評価された損失関数は、別の一様サンプルデータ損失関数に変換可能であることを示す。
驚いたことに、いくつかの環境では、PERは経験的パフォーマンスに影響を与えることなく、この新たな損失関数に完全に置き換えることができる。
論文 参考訳(メタデータ) (2020-07-12T17:45:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。