論文の概要: Real order total variation with applications to the loss functions in
learning schemes
- arxiv url: http://arxiv.org/abs/2204.04582v1
- Date: Sun, 10 Apr 2022 02:44:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-12 18:10:11.586891
- Title: Real order total variation with applications to the loss functions in
learning schemes
- Title(参考訳): 学習スキームにおける損失関数への応用による実数次全変動
- Authors: Pan Liu, Xin Yang Lu, Kunlun He
- Abstract要約: 本稿では、$r$-order (an)-isotropic total variation semi-norms $TVr$, $rin mathbbR+$からなる損失関数を提案する。
このような損失関数の関数と微分$r$の順序の両方に関して、下半連続性やコンパクト性のような重要な理論的性質の研究に焦点をあてる。
- 参考スコア(独自算出の注目度): 5.8868325478050165
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Loss function are an essential part in modern data-driven approach, such as
bi-level training scheme and machine learnings. In this paper we propose a loss
function consisting of a $r$-order (an)-isotropic total variation semi-norms
$TV^r$, $r\in \mathbb{R}^+$, defined via the Riemann-Liouville (R-L) fractional
derivative. We focus on studying key theoretical properties, such as the lower
semi-continuity and compactness with respect to both the function and the order
of derivative $r$, of such loss functions.
- Abstract(参考訳): 損失関数は、バイレベルトレーニングスキームや機械学習など、現代的なデータ駆動アプローチにおいて不可欠な部分である。
本稿では,リーマン・リウヴィル (R-L) 分数微分によって定義される半ノルムの$TV^r$, $r\in \mathbb{R}^+$を,$r$-次(an)-等方的全変分からなる損失関数を提案する。
このような損失関数の関数と微分$r$の順序の両方に関して、下半連続性やコンパクト性のような重要な理論的性質の研究に焦点をあてる。
関連論文リスト
- $α$-Divergence Loss Function for Neural Density Ratio Estimation [0.0]
密度比推定(DRE)は2つの確率分布の関係を捉えるための基礎的な機械学習手法である。
既存の手法では、低ウンバウンド損失関数によるオーバーフィッティング、バイアス付きミニバッチ勾配、トレーニング損失勾配の消失、KL(Kullback-Leibler)分散損失関数に対する高いサンプル要求など、最適化上の課題に直面している。
本稿では,DREの新しい損失関数である$alpha$-divergence loss function(alpha$-Div)を提案する。
論文 参考訳(メタデータ) (2024-02-03T05:33:01Z) - Adam-like Algorithm with Smooth Clipping Attains Global Minima: Analysis
Based on Ergodicity of Functional SDEs [0.0]
我々は,グローバル化された非-1損失関数を切断したAdam型アルゴリズムが正規化された非-1エラー形式を最小化することを示す。
また、スムーズな群のエルゴード理論を適用して、逆温度と時間を学ぶためのアプローチを研究する。
論文 参考訳(メタデータ) (2023-11-29T14:38:59Z) - A Nearly Optimal and Low-Switching Algorithm for Reinforcement Learning
with General Function Approximation [66.26739783789387]
我々は、強化学習のための新しいアルゴリズム、MQL-UCBを用いたモノトニックQ-Learningを提案する。
MQL-UCBは、$tildeO(dsqrtHK)$の最小限の後悔を実現する。
本研究は,非線形関数近似を用いたサンプル効率およびデプロイメント効率のよいQ-ラーニングの設計に重点を置いている。
論文 参考訳(メタデータ) (2023-11-26T08:31:57Z) - A survey and taxonomy of loss functions in machine learning [51.35995529962554]
本稿では, 回帰, 分類, 生成モデル, ランキング, エネルギーベースモデリングなど, 主要なアプリケーションにまたがる最も広く使われている損失関数について概観する。
直感的な分類法で構築された43個の個別の損失関数を導入し,それらの理論的基礎,特性,最適な適用状況を明らかにした。
論文 参考訳(メタデータ) (2023-01-13T14:38:24Z) - The Geometry and Calculus of Losses [10.451984251615512]
本稿では,二項・多クラス分類とクラス確率推定問題に対する損失関数の理論を開発する。
視点は3つの新しい機会を提供する。
これにより、これまで気付かなかったと思われる損失と(反)ノルムの基本的な関係の開発が可能になる。
第二に、凸集合の計算によって引き起こされる損失の計算の開発を可能にする。
第三に、パースペクティブは、損失を定義する凸集合の極双対から導かれる極の損失関数の自然な理論につながる。
論文 参考訳(メタデータ) (2022-09-01T05:57:19Z) - The Computational Complexity of ReLU Network Training Parameterized by
Data Dimensionality [8.940054309023525]
トレーニングデータの寸法$d$が計算の複雑さに与える影響を分析します。
既知のブルートフォース戦略が本質的に最適であることを示す。
特に、一定の$d$ と凸損失関数に対する既知の時間アルゴリズムを、より一般的な損失関数のクラスに拡張する。
論文 参考訳(メタデータ) (2021-05-18T17:05:26Z) - Deep neural network approximation of analytic functions [91.3755431537592]
ニューラルネットワークの空間に エントロピーバウンド 片方向の線形活性化関数を持つ
我々は、ペナル化深部ニューラルネットワーク推定器の予測誤差に対するオラクルの不等式を導出する。
論文 参考訳(メタデータ) (2021-04-05T18:02:04Z) - On Function Approximation in Reinforcement Learning: Optimism in the
Face of Large State Spaces [208.67848059021915]
強化学習のコアにおける探索・探索トレードオフについて検討する。
特に、関数クラス $mathcalF$ の複雑さが関数の複雑さを特徴づけていることを証明する。
私たちの後悔の限界はエピソードの数とは無関係です。
論文 参考訳(メタデータ) (2020-11-09T18:32:22Z) - $\sigma^2$R Loss: a Weighted Loss by Multiplicative Factors using
Sigmoidal Functions [0.9569316316728905]
我々は,二乗還元損失(sigma2$R損失)と呼ばれる新たな損失関数を導入する。
我々の損失は明らかな直観と幾何学的解釈を持ち、我々の提案の有効性を実験によって実証する。
論文 参考訳(メタデータ) (2020-09-18T12:34:40Z) - Reinforcement Learning with General Value Function Approximation:
Provably Efficient Approach via Bounded Eluder Dimension [124.7752517531109]
一般値関数近似を用いた効率の良い強化学習アルゴリズムを確立する。
我々のアルゴリズムは、$d$が複雑性測度である場合、$widetildeO(mathrmpoly(dH)sqrtT)$の後悔の限界を達成することを示す。
我々の理論は線形値関数近似によるRLの最近の進歩を一般化し、環境モデルに対する明示的な仮定をしない。
論文 参考訳(メタデータ) (2020-05-21T17:36:09Z) - Automatic Differentiation in ROOT [62.997667081978825]
数学と計算機代数において、自動微分 (AD) は、コンピュータプログラムによって指定された関数の微分を評価するための一連の技術である。
本稿では、任意のC/C++関数の導関数を生成するために、ClingがサポートするROOTで利用可能なAD技術を提案する。
論文 参考訳(メタデータ) (2020-04-09T09:18:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。