論文の概要: A Perceptron-based Fine Approximation Technique for Linear Separation
- arxiv url: http://arxiv.org/abs/2309.06049v1
- Date: Tue, 12 Sep 2023 08:35:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-13 13:51:37.706856
- Title: A Perceptron-based Fine Approximation Technique for Linear Separation
- Title(参考訳): パーセプトロンを用いた線形分離の精密近似法
- Authors: \'Akos Hajnal
- Abstract要約: 本稿では,正あるいは負のラベル付きデータポイント間でセパレータ超平面を見つけることを目的とした,新しいオンライン学習手法を提案する。
人工ニューロンの重みとバイアスは、高次元空間の超平面と直接関連付けられる。
実験結果から,Perceptronアルゴリズムよりも効率がよいことが示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a novel online learning method that aims at finding a
separator hyperplane between data points labelled as either positive or
negative. Since weights and biases of artificial neurons can directly be
related to hyperplanes in high-dimensional spaces, the technique is applicable
to train perceptron-based binary classifiers in machine learning. In case of
large or imbalanced data sets, use of analytical or gradient-based solutions
can become prohibitive and impractical, where heuristics and approximation
techniques are still applicable. The proposed method is based on the Perceptron
algorithm, however, it tunes neuron weights in just the necessary extent during
searching the separator hyperplane. Due to an appropriate transformation of the
initial data set we need not to consider data labels, neither the bias term.
respectively, reducing separability to a one-class classification problem. The
presented method has proven converge; empirical results show that it can be
more efficient than the Perceptron algorithm, especially, when the size of the
data set exceeds data dimensionality.
- Abstract(参考訳): 本稿では,正あるいは負のラベル付きデータポイント間でセパレータ超平面を見つけることを目的とした,新しいオンライン学習手法を提案する。
人工ニューロンの重みとバイアスは高次元空間の超平面と直接関連付けられるため、この手法は機械学習においてパーセプトロンベースのバイナリ分類器の訓練に適用できる。
大規模または不均衡なデータセットの場合、解析的あるいは勾配に基づくソリューションの使用は禁止的で非現実的になりうる。
提案手法はパーセプトロンアルゴリズムに基づいているが、セパレータ超平面を探索する際に必要な程度にニューロンの重みをチューニングする。
初期データセットの適切な変換のため、バイアス項も必要とせず、データラベルを考慮する必要はない。
それぞれ、セパビリティを1クラスの分類問題に還元する。
実験の結果,特にデータセットのサイズがデータ次元を超える場合,Perceptronアルゴリズムよりも効率がよいことが示された。
関連論文リスト
- Symmetry Discovery for Different Data Types [52.2614860099811]
等価ニューラルネットワークは、そのアーキテクチャに対称性を取り入れ、より高度な一般化性能を実現する。
本稿では,タスクの入出力マッピングを近似したトレーニングニューラルネットワークによる対称性発見手法であるLieSDを提案する。
我々は,2体問題,慣性行列予測のモーメント,トップクォークタグ付けといった課題におけるLieSDの性能を検証した。
論文 参考訳(メタデータ) (2024-10-13T13:39:39Z) - Minimally Supervised Learning using Topological Projections in
Self-Organizing Maps [55.31182147885694]
自己組織化マップ(SOM)におけるトポロジカルプロジェクションに基づく半教師付き学習手法を提案する。
提案手法は,まずラベル付きデータ上でSOMを訓練し,最小限のラベル付きデータポイントをキーベストマッチングユニット(BMU)に割り当てる。
提案した最小教師付きモデルが従来の回帰手法を大幅に上回ることを示す。
論文 参考訳(メタデータ) (2024-01-12T22:51:48Z) - Learning A Disentangling Representation For PU Learning [18.94726971543125]
本稿では、ラベルのないデータを2つのクラスタに投影するロス関数を用いて、ニューラルネットワークに基づくデータ表現を学習することを提案する。
提案手法の性能向上を実証する PU データのシミュレーション実験を行った。
論文 参考訳(メタデータ) (2023-10-05T18:33:32Z) - Nonlinear Isometric Manifold Learning for Injective Normalizing Flows [58.720142291102135]
アイソメトリーを用いて、多様体学習と密度推定を分離する。
また、確率分布を歪ませない明示的な逆数を持つ埋め込みを設計するためにオートエンコーダを用いる。
論文 参考訳(メタデータ) (2022-03-08T08:57:43Z) - Tensor Network Kalman Filtering for Large-Scale LS-SVMs [17.36231167296782]
最小二乗支援ベクトルマシンは非線形回帰と分類に使用される。
テンソルネットワークとカルマンフィルタに基づくフレームワークは、要求されるメモリと計算の複雑さを軽減する。
その結果,提案手法は高い性能を達成でき,代替手法が計算能力に欠ける場合には特に有用であることがわかった。
論文 参考訳(メタデータ) (2021-10-26T08:54:03Z) - Manifold learning-based polynomial chaos expansions for high-dimensional
surrogate models [0.0]
システム記述における不確実性定量化(UQ)のための多様体学習に基づく手法を提案する。
提案手法は高精度な近似を達成でき、UQタスクの大幅な高速化につながる。
論文 参考訳(メタデータ) (2021-07-21T00:24:15Z) - Scalable Marginal Likelihood Estimation for Model Selection in Deep
Learning [78.83598532168256]
階層型モデル選択は、推定困難のため、ディープラーニングではほとんど使われない。
本研究は,検証データが利用できない場合,限界的可能性によって一般化が向上し,有用であることを示す。
論文 参考訳(メタデータ) (2021-04-11T09:50:24Z) - Unlabeled Principal Component Analysis and Matrix Completion [25.663593359761336]
本稿では、列のエントリが置換によって破損したデータ行列から、ロバストな主成分分析を導入する。
UPCAに類似したフレーバーの理論とアルゴリズムを導出する。
合成データ、顔画像、教育および医療記録の実験は、データ民営化やレコードリンクのような応用のためのアルゴリズムの可能性を明らかにする。
論文 参考訳(メタデータ) (2021-01-23T07:34:48Z) - Sparse PCA via $l_{2,p}$-Norm Regularization for Unsupervised Feature
Selection [138.97647716793333]
再構成誤差を$l_2,p$ノルム正規化と組み合わせることで,単純かつ効率的な特徴選択手法を提案する。
提案する非教師付きモデルを解くための効率的な最適化アルゴリズムを提案し,アルゴリズムの収束と計算の複雑さを理論的に解析する。
論文 参考訳(メタデータ) (2020-12-29T04:08:38Z) - Graph Embedding with Data Uncertainty [113.39838145450007]
スペクトルベースのサブスペース学習は、多くの機械学習パイプラインにおいて、一般的なデータ前処理ステップである。
ほとんどの部分空間学習法は、不確実性の高いデータにつながる可能性のある測定の不正確さやアーティファクトを考慮していない。
論文 参考訳(メタデータ) (2020-09-01T15:08:23Z) - Linear Tensor Projection Revealing Nonlinearity [0.294944680995069]
次元の減少は高次元データの学習に有効な方法である。
本稿では,元データ情報を可能な限り多く保持しつつ,予測精度を最大化する部分空間を探索する手法を提案する。
論文 参考訳(メタデータ) (2020-07-08T06:10:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。