論文の概要: Enhancing Cross Entropy with a Linearly Adaptive Loss Function for Optimized Classification Performance
- arxiv url: http://arxiv.org/abs/2507.10574v1
- Date: Thu, 10 Jul 2025 16:38:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-16 19:46:02.733796
- Title: Enhancing Cross Entropy with a Linearly Adaptive Loss Function for Optimized Classification Performance
- Title(参考訳): 最適分類性能のための線形適応損失関数を用いたクロスエントロピーの強化
- Authors: Jae Wan Shim,
- Abstract要約: 線形適応クロスエントロピー損失関数は情報理論から派生した新しい尺度である。
提案された項は、真のクラスの予測確率に依存する追加用語を持つ。
予備的な結果から,提案手法は標準クロスエントロピー損失関数よりも精度が高いことがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose the Linearly Adaptive Cross Entropy Loss function. This is a novel measure derived from the information theory. In comparison to the standard cross entropy loss function, the proposed one has an additional term that depends on the predicted probability of the true class. This feature serves to enhance the optimization process in classification tasks involving one-hot encoded class labels. The proposed one has been evaluated on a ResNet-based model using the CIFAR-100 dataset. Preliminary results show that the proposed one consistently outperforms the standard cross entropy loss function in terms of classification accuracy. Moreover, the proposed one maintains simplicity, achieving practically the same efficiency to the traditional cross entropy loss. These findings suggest that our approach could broaden the scope for future research into loss function design.
- Abstract(参考訳): 線形適応型クロスエントロピー損失関数を提案する。
これは情報理論から派生した新しい尺度である。
標準的なクロスエントロピー損失関数と比較して、提案項は真のクラスの予測確率に依存する追加項を持つ。
この機能は、1ホットのエンコードされたクラスラベルを含む分類タスクの最適化プロセスを強化するのに役立つ。
提案手法はCIFAR-100データセットを用いてResNetモデルを用いて評価されている。
予備的な結果から,提案手法は標準クロスエントロピー損失関数よりも精度が高いことがわかった。
さらに,提案手法は単純さを維持し,従来のクロスエントロピー損失と実質的に同じ効率性を実現する。
これらの結果から,本手法は損失関数設計の今後の研究範囲を広げる可能性が示唆された。
関連論文リスト
- Self-Boost via Optimal Retraining: An Analysis via Approximate Message Passing [58.52119063742121]
独自の予測と潜在的にノイズの多いラベルを使ってモデルをトレーニングすることは、モデルパフォーマンスを改善するためのよく知られた戦略である。
本稿では,モデルの予測と提供ラベルを最適に組み合わせる方法について論じる。
我々の主な貢献は、現在のモデルの予測と与えられたラベルを組み合わせたベイズ最適集約関数の導出である。
論文 参考訳(メタデータ) (2025-05-21T07:16:44Z) - Next Generation Loss Function for Image Classification [0.0]
我々は、遺伝的プログラミング(GP)アプローチを利用して、クロスエントロピー(CE)損失を含むよく知られた損失関数に挑戦する。
NGL(Next Generation Loss)と呼ばれる1つの関数は、テストされたすべてのデータセットで、同じか、より優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-04-19T15:26:36Z) - $f$-Divergence Based Classification: Beyond the Use of Cross-Entropy [4.550290285002704]
我々はベイズ的視点を採用し、その分類タスクを最大後続確率問題として定式化する。
本稿では,$f$-divergenceの変動表現に基づく目的関数のクラスを提案する。
提案する目的関数を理論的に解析し、3つのアプリケーションシナリオで数値的に検証する。
論文 参考訳(メタデータ) (2024-01-02T16:14:02Z) - Causal Feature Selection via Transfer Entropy [59.999594949050596]
因果発見は、観察データによる特徴間の因果関係を特定することを目的としている。
本稿では,前向きと後向きの機能選択に依存する新たな因果的特徴選択手法を提案する。
精度および有限サンプルの場合の回帰誤差と分類誤差について理論的に保証する。
論文 参考訳(メタデータ) (2023-10-17T08:04:45Z) - Boosting Differentiable Causal Discovery via Adaptive Sample Reweighting [62.23057729112182]
異なるスコアに基づく因果探索法は観測データから有向非巡回グラフを学習する。
本稿では,Reweighted Score関数ReScoreの適応重みを動的に学習することにより因果発見性能を向上させるためのモデルに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T14:49:59Z) - Cut your Losses with Squentropy [19.924900110707284]
ここでは、クロスエントロピー損失と、不正なクラスに対する平均平方損失という2つの項の和である「スカントロピー」損失を提案する。
その結果, スクエントロピーの損失は, 純粋なクロスエントロピーと再スケールした正方形損失の両方において, 分類精度において優れていた。
論文 参考訳(メタデータ) (2023-02-08T09:21:13Z) - Contrastive Classification and Representation Learning with
Probabilistic Interpretation [5.979778557940212]
クロスエントロピー損失は、分類に基づくタスクの主目的関数として機能している。
ネットワークの分類器とバックボーンのパラメータを協調的に学習する教師付きコントラスト訓練の新バージョンを提案する。
論文 参考訳(メタデータ) (2022-11-07T15:57:24Z) - Generalizing Bayesian Optimization with Decision-theoretic Entropies [102.82152945324381]
統計的決定論の研究からシャノンエントロピーの一般化を考える。
まず,このエントロピーの特殊なケースがBO手順でよく用いられる獲得関数に繋がることを示す。
次に、損失に対する選択肢の選択が、どのようにして柔軟な獲得関数の族をもたらすかを示す。
論文 参考訳(メタデータ) (2022-10-04T04:43:58Z) - Fine-grained Retrieval Prompt Tuning [149.9071858259279]
微粒な検索プロンプトチューニングは, サンプルプロンプトと特徴適応の観点から, きめの細かい検索タスクを実行するために, 凍結した事前学習モデルを操る。
学習可能なパラメータが少ないFRPTは、広く使われている3つの細粒度データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2022-07-29T04:10:04Z) - EXACT: How to Train Your Accuracy [6.144680854063938]
本稿では,モデル出力にアセンシティを導入し,予測精度を最適化することで,新しい最適化フレームワークを提案する。
線形モデルと深層画像分類の実験により,提案手法は広く用いられている分類損失の強力な代替手段であることが示された。
論文 参考訳(メタデータ) (2022-05-19T15:13:00Z) - A Flatter Loss for Bias Mitigation in Cross-dataset Facial Age
Estimation [37.107335288543624]
年齢推定ベンチマークのためのクロスデータセットプロトコルを提唱する。
本稿では,ニューラルネットワークのトレーニングに有効な新しい損失関数を提案する。
論文 参考訳(メタデータ) (2020-10-20T15:22:29Z) - Pseudo-Convolutional Policy Gradient for Sequence-to-Sequence
Lip-Reading [96.48553941812366]
唇読解は唇運動系列から音声内容を推測することを目的としている。
seq2seqモデルの伝統的な学習プロセスには2つの問題がある。
本稿では,これら2つの問題に対処するために,PCPGに基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2020-03-09T09:12:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。