論文の概要: A generalized quadratic loss for SVM and Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2102.07606v1
- Date: Mon, 15 Feb 2021 15:49:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-17 11:22:04.980579
- Title: A generalized quadratic loss for SVM and Deep Neural Networks
- Title(参考訳): SVMとディープニューラルネットワークの一般化二次損失
- Authors: Filippo Portera
- Abstract要約: 我々は、いくつかの監督されたバイナリ分類タスクと回帰タスクを検討するが、SVMとDeep Learningは現在、最高の一般化パフォーマンスを示す。
パターン相関を検討する学習問題に対する一般化二次損失に関する研究[3]を拡張し、パターンがより高密度に分布する入力空間領域に学習問題を集中させる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: We consider some supervised binary classification tasks and a regression
task, whereas SVM and Deep Learning, at present, exhibit the best
generalization performances. We extend the work [3] on a generalized quadratic
loss for learning problems that examines pattern correlations in order to
concentrate the learning problem into input space regions where patterns are
more densely distributed. From a shallow methods point of view (e.g.: SVM),
since the following mathematical derivation of problem (9) in [3] is incorrect,
we restart from problem (8) in [3] and we try to solve it with one procedure
that iterates over the dual variables until the primal and dual objective
functions converge. In addition we propose another algorithm that tries to
solve the classification problem directly from the primal problem formulation.
We make also use of Multiple Kernel Learning to improve generalization
performances. Moreover, we introduce for the first time a custom loss that
takes in consideration pattern correlation for a shallow and a Deep Learning
task. We propose some pattern selection criteria and the results on 4 UCI
data-sets for the SVM method. We also report the results on a larger binary
classification data-set based on Twitter, again drawn from UCI, combined with
shallow Learning Neural Networks, with and without the generalized quadratic
loss. At last, we test our loss with a Deep Neural Network within a larger
regression task taken from UCI. We compare the results of our optimizers with
the well known solver SVMlight and with Keras Multi-Layers Neural Networks with
standard losses and with a parameterized generalized quadratic loss, and we
obtain comparable results.
- Abstract(参考訳): 我々は、いくつかの監督されたバイナリ分類タスクと回帰タスクを検討するが、SVMとDeep Learningは現在、最高の一般化パフォーマンスを示す。
パターン相関を検討する学習問題に対する一般化二次損失に関する研究[3]を拡張し、パターンがより高密度に分布する入力空間領域に学習問題を集中させる。
浅い方法の視点から(例)。
SVM) は, [3] における問題 (9) の数学的導出が不正確であるため, [3] における問題 (8) から再開し, 主目的関数と双対目的関数が収束するまで, 双対変数を反復する1つの手順で解こうとする。
また,予備問題の定式化から直接分類問題を解こうとする別のアルゴリズムを提案する。
また、一般化性能を向上させるために多重カーネル学習を利用する。
さらに,浅層および深層学習タスクのパターン相関を考慮したカスタム損失を初めて紹介する。
パターン選択基準とSVM法における4つのUCIデータセットに関する結果を提案する。
また,uciから引用した,twitterに基づく大規模バイナリ分類データセットと,一般化された二次損失の有無に関わらず,浅層学習ニューラルネットワークを併用した結果を報告する。
最後に、UCIから取られたより大きな回帰タスクの中で、Deep Neural Networkで損失をテストします。
我々は、最適化器の結果を、よく知られたSVMlightやKeras Multi-Layers Neural Networksの標準損失とパラメータ化された一般化二次損失と比較し、比較結果を得た。
関連論文リスト
- What to Do When Your Discrete Optimization Is the Size of a Neural
Network? [24.546550334179486]
ニューラルネットワークを用いた機械学習アプリケーションは、離散最適化問題を解くことを含む。
離散的な設定で使用される古典的なアプローチは、大きなニューラルネットワークに対してうまくスケールしない。
連続経路(CP)法は,前者およびモンテカルロ法(MC)法を純粋に表現し,後者を表現している。
論文 参考訳(メタデータ) (2024-02-15T21:57:43Z) - Learning To Dive In Branch And Bound [95.13209326119153]
グラフニューラルネットワークを用いて特定の潜水構造を学習するためのL2Diveを提案する。
我々は、変数の割り当てを予測するために生成モデルを訓練し、線形プログラムの双対性を利用して潜水決定を行う。
論文 参考訳(メタデータ) (2023-01-24T12:01:45Z) - Towards Better Out-of-Distribution Generalization of Neural Algorithmic
Reasoning Tasks [51.8723187709964]
ニューラルネットワーク推論タスクのOOD一般化について検討する。
目標は、ディープニューラルネットワークを使用して入出力ペアからアルゴリズムを学ぶことである。
論文 参考訳(メタデータ) (2022-11-01T18:33:20Z) - Understanding the Generalization of Adam in Learning Neural Networks
with Proper Regularization [118.50301177912381]
我々は,重力減衰グローバリゼーションにおいても,目的の異なる解に確実に異なる誤差で収束できることを示す。
凸と重み減衰正則化を用いると、Adamを含む任意の最適化アルゴリズムは同じ解に収束することを示す。
論文 参考訳(メタデータ) (2021-08-25T17:58:21Z) - Network Support for High-performance Distributed Machine Learning [17.919773898228716]
学習ノード(計算を行う)と情報ノード(データを提供する)の両方をキャプチャするシステムモデルを提案する。
次に,学習課題を完了させるために,学習ノードと情報ノードが協調して行うべき課題と,実行すべきイテレーション数を選択する問題を定式化する。
我々はDoubleClimbというアルゴリズムを考案し、1+1/|I|競合解を見つけることができる。
論文 参考訳(メタデータ) (2021-02-05T19:38:57Z) - Understanding Self-supervised Learning with Dual Deep Networks [74.92916579635336]
本稿では,2組の深層ReLUネットワークを用いたコントラスト型自己教師学習(SSL)手法を理解するための新しい枠組みを提案する。
種々の損失関数を持つSimCLRの各SGD更新において、各層の重みは共分散演算子によって更新されることを示す。
共分散演算子の役割と、そのようなプロセスでどのような特徴が学習されるかをさらに研究するために、我々は、階層的潜在木モデル(HLTM)を用いて、データ生成および増大過程をモデル化する。
論文 参考訳(メタデータ) (2020-10-01T17:51:49Z) - Fast Learning of Graph Neural Networks with Guaranteed Generalizability:
One-hidden-layer Case [93.37576644429578]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから実際に学習する上で、近年大きな進歩を遂げている。
回帰問題と二項分類問題の両方に隠れ層を持つGNNの理論的に基底的な一般化可能性解析を行う。
論文 参考訳(メタデータ) (2020-06-25T00:45:52Z) - An Efficient Framework for Clustered Federated Learning [26.24231986590374]
本稿では,ユーザがクラスタに分散するフェデレーション学習(FL)の問題に対処する。
反復フェデレーションクラスタリングアルゴリズム(IFCA)を提案する。
ニューラルネットワークのような非分割問題では,アルゴリズムが効率的であることを示す。
論文 参考訳(メタデータ) (2020-06-07T08:48:59Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。