論文の概要: The Fourier Loss Function
- arxiv url: http://arxiv.org/abs/2102.02979v1
- Date: Fri, 5 Feb 2021 03:19:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-08 14:46:09.357719
- Title: The Fourier Loss Function
- Title(参考訳): フーリエ損失関数
- Authors: Auricchio Gennaro, Codegoni Andrea, Gualandi Stefano, Zambon Lorenzo
- Abstract要約: 本稿では,Fourier-based Metricによって誘導される新たな損失関数を提案する。
フーリエ損失関数が2倍微分可能であることを証明し、その勾配とヘッセン行列の両方に対して明示的な公式を与える。
MNIST, Fashion-MNIST, CIFAR10データセットを用いて, 損失関数を多クラス分類タスクに適用する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper introduces a new loss function induced by the Fourier-based
Metric. This metric is equivalent to the Wasserstein distance but is computed
very efficiently using the Fast Fourier Transform algorithm. We prove that the
Fourier loss function is twice differentiable, and we provide the explicit
formula for both its gradient and its Hessian matrix. More importantly, we show
that minimising the Fourier loss function is equivalent to maximising the
likelihood of the data under a Gaussian noise in the space of frequencies. We
apply our loss function to a multi-class classification task using MNIST,
Fashion-MNIST, and CIFAR10 datasets. The computational results show that, while
its accuracy is competitive with other state-of-the-art loss functions, the
Fourier loss function is significantly more robust to noisy data.
- Abstract(参考訳): 本稿では,フーリエ計量によって引き起こされる新しい損失関数を提案する。
この計量はワッサーシュタイン距離と同等であるが、高速フーリエ変換アルゴリズムを用いて非常に効率的に計算される。
フーリエ損失関数は2回微分可能であることを証明し、その勾配とヘッセン行列の両方に対して明示的な公式を与える。
さらに、フーリエ損失関数の最小化は、周波数空間におけるガウス雑音の下でのデータの可能性の最大化に等しいことを示す。
MNIST, Fashion-MNIST, CIFAR10データセットを用いたマルチクラス分類タスクに損失関数を適用します。
計算結果から,その精度は他の最先端の損失関数と競合するが,フーリエ損失関数はノイズデータに対してかなり頑健であることが示された。
関連論文リスト
- Trigonometric Quadrature Fourier Features for Scalable Gaussian Process
Regression [3.577968559443225]
QFF(Quardrature Fourier Features)は、近似精度の向上とキャリブレーションの不確実性評価の改善により近年人気を集めている。
QFFの鍵となる限界は、その性能が高振動性二次状態に関連するよく知られた病態に悩まされることである。
我々は、新しい非ガウスの二次法則を用いる新しい三角四分法フーリエ法(TQFF)により、この問題に対処する。
論文 参考訳(メタデータ) (2023-10-23T03:53:09Z) - Fourier Continuation for Exact Derivative Computation in
Physics-Informed Neural Operators [53.087564562565774]
PINOは、偏微分方程式を学習するための有望な実験結果を示す機械学習アーキテクチャである。
非周期問題に対して、フーリエ継続(FC)を利用して正確な勾配法をPINOに適用するアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-11-29T06:37:54Z) - Fourier Disentangled Space-Time Attention for Aerial Video Recognition [54.80846279175762]
本稿では,UAVビデオ行動認識のためのFAR(Fourier Activity Recognition)アルゴリズムを提案する。
我々の定式化は、人間のエージェントを背景から自然に分離するために、新しいフーリエオブジェクト・ディコンタングルメント法を用いています。
我々はUAV Human RGB、UAV Human Night、Drone Action、NEC Droneを含む複数のUAVデータセットに対するアプローチを評価した。
論文 参考訳(メタデータ) (2022-03-21T01:24:53Z) - Factorized Fourier Neural Operators [77.47313102926017]
Factorized Fourier Neural Operator (F-FNO) は偏微分方程式をシミュレートする学習法である。
我々は,数値解法よりも桁違いに高速に動作しながら,誤差率2%を維持していることを示す。
論文 参考訳(メタデータ) (2021-11-27T03:34:13Z) - Large-Scale Learning with Fourier Features and Tensor Decompositions [3.6930948691311007]
決定論的フーリエ特徴のテンソル積構造を利用して、モデルパラメータを低ランクテンソル分解として表現することができる。
数値実験により、我々の低ランクテンソル法が対応する非パラメトリックモデルと同じ性能を得ることを示す。
論文 参考訳(メタデータ) (2021-09-03T14:12:53Z) - Asymmetric Loss Functions for Learning with Noisy Labels [82.50250230688388]
そこで本研究では,様々なノイズに対する雑音ラベルによる学習に頑健な,新しい損失関数,すなわちテクスティタ対称損失関数を提案する。
ベンチマークデータセットの実験結果は、非対称損失関数が最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2021-06-06T12:52:48Z) - Sigma-Delta and Distributed Noise-Shaping Quantization Methods for
Random Fourier Features [73.25551965751603]
我々は、量子化 RFF が基礎となるカーネルの高精度な近似を可能にすることを証明した。
量子化 RFF はさらに圧縮され,メモリ使用量と精度のトレードオフに優れることを示す。
本手法は,この文脈におけるアート量子化手法の他の状態と比較し,いくつかの機械学習タスクにおいて,提案手法の性能を実証的に示す。
論文 参考訳(メタデータ) (2021-06-04T17:24:47Z) - Learning Set Functions that are Sparse in Non-Orthogonal Fourier Bases [73.53227696624306]
フーリエスパース集合関数を学習するための新しいアルゴリズム群を提案する。
Walsh-Hadamard変換に焦点をあてた他の研究とは対照的に、我々の新しいアルゴリズムは最近導入された非直交フーリエ変換で機能する。
いくつかの実世界のアプリケーションで有効性を示す。
論文 参考訳(メタデータ) (2020-10-01T14:31:59Z) - Fast Partial Fourier Transform [28.36925669222461]
高速フーリエ変換(FFT)は、多くの機械学習アプリケーションにおいて離散フーリエ変換を計算するアルゴリズムである。
広く使われているにもかかわらず、既知の全てのFFTアルゴリズムは、ユーザの要求を指定するための微調整オプションを提供していない。
本稿では,係数を計算すべき任意の連続範囲を指定可能な高速部分フーリエ変換(PFT)を提案する。
論文 参考訳(メタデータ) (2020-08-28T10:01:49Z) - Fourier Neural Networks as Function Approximators and Differential
Equation Solvers [0.456877715768796]
活性化と損失関数の選択は、フーリエ級数展開を密接に再現する結果をもたらす。
我々はこのFNNを自然周期的滑らかな関数と断片的連続周期関数で検証する。
現在のアプローチの主な利点は、トレーニング領域外のソリューションの有効性、トレーニングされたモデルの解釈可能性、使用の単純さである。
論文 参考訳(メタデータ) (2020-05-27T00:30:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。