論文の概要: Fourier Transform Approach to Machine Learning III: Fourier
Classification
- arxiv url: http://arxiv.org/abs/2001.06081v3
- Date: Wed, 16 Nov 2022 08:47:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-14 17:37:44.503468
- Title: Fourier Transform Approach to Machine Learning III: Fourier
Classification
- Title(参考訳): フーリエ変換による機械学習へのアプローチiii:フーリエ分類
- Authors: Soheil Mehrabkhani
- Abstract要約: 非線形多クラス分類のための学習アルゴリズムを提案する。
このアルゴリズムは全クラスの確率分布を計算するスムースな手法に基づいている。
カーネル関数を定義することなく、データ分散の非線形性をキャプチャする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a Fourier-based learning algorithm for highly nonlinear multiclass
classification. The algorithm is based on a smoothing technique to calculate
the probability distribution of all classes. To obtain the probability
distribution, the density distribution of each class is smoothed by a low-pass
filter separately. The advantage of the Fourier representation is capturing the
nonlinearities of the data distribution without defining any kernel function.
Furthermore, contrary to the support vector machines, it makes a probabilistic
explanation for the classification possible. Moreover, it can treat overlapped
classes as well. Comparing to the logistic regression, it does not require
feature engineering. In general, its computational performance is also very
well for large data sets and in contrast to other algorithms, the typical
overfitting problem does not happen at all. The capability of the algorithm is
demonstrated for multiclass classification with overlapped classes and very
high nonlinearity of the class distributions.
- Abstract(参考訳): 非線形多クラス分類のためのフーリエ学習アルゴリズムを提案する。
このアルゴリズムは全クラスの確率分布を計算するスムースな手法に基づいている。
確率分布を得るために、各クラスの密度分布をローパスフィルタで別々に平滑化させる。
フーリエ表現の利点は、カーネル関数を定義することなくデータ分布の非線形性を捉えることである。
さらに、サポートベクトルマシンとは対照的に、分類の確率論的説明を可能にする。
さらに、重複したクラスも扱うことができる。
ロジスティック回帰と比較すると、機能エンジニアリングは必要ない。
一般に、その計算性能は大規模データセットにも非常によく、他のアルゴリズムとは対照的に、典型的なオーバーフィッティング問題は発生しない。
アルゴリズムの能力は、重複クラスとクラス分布の非常に高い非線形性を持つ多重クラス分類に対して実証される。
関連論文リスト
- Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - SimPro: A Simple Probabilistic Framework Towards Realistic Long-Tailed Semi-Supervised Learning [49.94607673097326]
ラベルなしデータの分散に関する前提を前提としない、高度に適応可能なフレームワークをSimProとして提案する。
我々のフレームワークは確率モデルに基づいており、期待最大化アルゴリズムを革新的に洗練する。
本手法は,様々なベンチマークやデータ分散シナリオにまたがる一貫した最先端性能を示す。
論文 参考訳(メタデータ) (2024-02-21T03:39:04Z) - Generating Multi-Center Classifier via Conditional Gaussian Distribution [7.77615886942767]
実世界のデータでは、1つのクラスは複数の局所的なクラスタ(例えば異なるポーズの鳥)を含むことができる。
各クラスに対して条件付きガウス分布を作成し、次に複数のサブセンターをサンプリングする。
このアプローチにより、モデルがクラス内の局所構造をより効率的にキャプチャできる。
論文 参考訳(メタデータ) (2024-01-29T08:06:33Z) - Don't guess what's true: choose what's optimal. A probability transducer
for machine-learning classifiers [0.0]
医学や薬物発見において、分類の最終的な目標は、クラスを推測するのではなく、可能な一連のクラスの中から最適な行動経路を選択することである。
本研究の主な目的は、特徴ではなく、訓練された分類器の出力に基づいて確率を計算することである。
この計算は安価で、1回だけ行う必要があり、将来の全ての出力に適用できる出力から確率までの「トランスデューサ」を提供する。
論文 参考訳(メタデータ) (2023-02-21T10:14:13Z) - Generalized Differentiable RANSAC [95.95627475224231]
$nabla$-RANSACは、ランダム化された堅牢な推定パイプライン全体を学ぶことができる、微分可能なRANSACである。
$nabla$-RANSACは、精度という点では最先端のシステムよりも優れているが、精度は低い。
論文 参考訳(メタデータ) (2022-12-26T15:13:13Z) - An Upper Bound for the Distribution Overlap Index and Its Applications [18.481370450591317]
本稿では,2つの確率分布間の重なり関数に対する計算容易な上限を提案する。
提案した境界は、一級分類と領域シフト解析においてその値を示す。
私たちの研究は、重複ベースのメトリクスの応用を拡大する大きな可能性を示しています。
論文 参考訳(メタデータ) (2022-12-16T20:02:03Z) - Do Deep Networks Transfer Invariances Across Classes? [123.84237389985236]
ニュアンス変換を学習するための生成的アプローチが、クラス間での不変性の伝達にどのように役立つかを示す。
この結果から,不均衡分布や細長い分布に対して分類器が不規則に一般化する理由が示唆された。
論文 参考訳(メタデータ) (2022-03-18T04:38:18Z) - Do We Really Need a Learnable Classifier at the End of Deep Neural
Network? [118.18554882199676]
本研究では、ニューラルネットワークを学習して分類器をランダムにETFとして分類し、訓練中に固定する可能性について検討する。
実験結果から,バランスの取れたデータセットの画像分類において,同様の性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-03-17T04:34:28Z) - Exploring Category-correlated Feature for Few-shot Image Classification [27.13708881431794]
本稿では,従来の知識として,新しいクラスとベースクラスのカテゴリ相関を探索し,シンプルで効果的な特徴補正手法を提案する。
提案手法は, 広く使用されている3つのベンチマークにおいて, 一定の性能向上が得られる。
論文 参考訳(メタデータ) (2021-12-14T08:25:24Z) - Intra-Class Uncertainty Loss Function for Classification [6.523198497365588]
特にアンバランスクラスを含むデータセットでは、クラス内の不確実性/可変性は考慮されない。
本フレームワークでは,各クラスの深いネットワークによって抽出された特徴を,独立なガウス分布によって特徴付ける。
提案手法は,より優れたクラス表現を学習することで,分類性能の向上を示す。
論文 参考訳(メタデータ) (2021-04-12T09:02:41Z) - Theoretical Insights Into Multiclass Classification: A High-dimensional
Asymptotic View [82.80085730891126]
線形多クラス分類の最初の現代的精度解析を行う。
分析の結果,分類精度は分布に依存していることがわかった。
得られた洞察は、他の分類アルゴリズムの正確な理解の道を開くかもしれない。
論文 参考訳(メタデータ) (2020-11-16T05:17:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。