論文の概要: Probabilistic spatial clustering based on the Self Discipline Learning
(SDL) model of autonomous learning
- arxiv url: http://arxiv.org/abs/2201.03449v1
- Date: Fri, 7 Jan 2022 17:18:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-12 23:42:41.612806
- Title: Probabilistic spatial clustering based on the Self Discipline Learning
(SDL) model of autonomous learning
- Title(参考訳): 自律学習の自己規律学習(SDL)モデルに基づく確率論的空間クラスタリング
- Authors: Zecang Cu, Xiaoqi Sun, Yuan Sun, Fuquan Zhang
- Abstract要約: 教師なしクラスタリングアルゴリズムは、高次元のラベルなしデータの次元を効果的に削減することができる。
従来のクラスタリングアルゴリズムでは、事前にカテゴリの上限を設定する必要がある。
自己離散学習(SDL)モデルに基づく確率空間クラスタリングアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 1.9322517897534983
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unsupervised clustering algorithm can effectively reduce the dimension of
high-dimensional unlabeled data, thus reducing the time and space complexity of
data processing. However, the traditional clustering algorithm needs to set the
upper bound of the number of categories in advance, and the deep learning
clustering algorithm will fall into the problem of local optimum. In order to
solve these problems, a probabilistic spatial clustering algorithm based on the
Self Discipline Learning(SDL) model is proposed. The algorithm is based on the
Gaussian probability distribution of the probability space distance between
vectors, and uses the probability scale and maximum probability value of the
probability space distance as the distance measurement judgment, and then
determines the category of each sample according to the distribution
characteristics of the data set itself. The algorithm is tested in Laboratory
for Intelligent and Safe Automobiles(LISA) traffic light data set, the accuracy
rate is 99.03%, the recall rate is 91%, and the effect is achieved.
- Abstract(参考訳): 教師なしクラスタリングアルゴリズムは、高次元のラベルなしデータの次元を効果的に削減し、データ処理の時間と空間の複雑さを低減できる。
しかし、従来のクラスタリングアルゴリズムでは、事前にカテゴリの上限を設定する必要があり、ディープラーニングクラスタリングアルゴリズムは局所的な最適化の問題に陥る。
これらの問題を解決するために,自己規律学習(sdl)モデルに基づく確率的空間クラスタリングアルゴリズムを提案する。
このアルゴリズムは、ベクトル間の確率空間距離のガウス確率分布に基づいて、確率空間距離の確率スケールと最大確率値を用いて距離測定判定を行い、データセット自体の分布特性に応じて各サンプルのカテゴリを決定する。
このアルゴリズムは、インテリジェントで安全な自動車(lisa)交通光データセットの実験室でテストされ、精度は99.03%、リコール率は91%、効果が得られた。
関連論文リスト
- Anomaly Detection Under Uncertainty Using Distributionally Robust
Optimization Approach [0.9217021281095907]
異常検出は、大多数のパターンに従わないデータポイントを見つける問題として定義される。
1クラスのサポートベクトルマシン(SVM)メソッドは、通常のデータポイントと異常を区別するための決定境界を見つけることを目的としている。
誤分類の確率が低い分布的に頑健な確率制約モデルを提案する。
論文 参考訳(メタデータ) (2023-12-03T06:13:22Z) - Fast Optimal Locally Private Mean Estimation via Random Projections [58.603579803010796]
ユークリッド球における高次元ベクトルの局所的プライベート平均推定の問題について検討する。
プライベート平均推定のための新しいアルゴリズムフレームワークであるProjUnitを提案する。
各ランダム化器はその入力をランダムな低次元部分空間に投影し、結果を正規化し、最適なアルゴリズムを実行する。
論文 参考訳(メタデータ) (2023-06-07T14:07:35Z) - Linearized Wasserstein dimensionality reduction with approximation
guarantees [65.16758672591365]
LOT Wassmap は、ワーッサーシュタイン空間の低次元構造を明らかにするための計算可能なアルゴリズムである。
我々は,LOT Wassmapが正しい埋め込みを実現し,サンプルサイズの増加とともに品質が向上することを示す。
また、LOT Wassmapがペア距離計算に依存するアルゴリズムと比較して計算コストを大幅に削減することを示す。
論文 参考訳(メタデータ) (2023-02-14T22:12:16Z) - Learning to Bound Counterfactual Inference in Structural Causal Models
from Observational and Randomised Data [64.96984404868411]
我々は、従来のEMベースのアルゴリズムを拡張するための全体的なデータの特徴付けを導出する。
新しいアルゴリズムは、そのような混合データソースからモデルパラメータの(不特定性)領域を近似することを学ぶ。
反実的な結果に間隔近似を与え、それが特定可能な場合の点に崩壊する。
論文 参考訳(メタデータ) (2022-12-06T12:42:11Z) - Random Subspace Mixture Models for Interpretable Anomaly Detection [0.0]
本研究では,高次元データに対する確率モデルを構築するための部分空間に基づく新しい手法を提案する。
提案アルゴリズムは、ベンチマーク異常検出データセットに対する顕著なアルゴリズムと比較して、競合するAUCスコアを得る。
論文 参考訳(メタデータ) (2021-08-13T15:12:53Z) - Hyperdimensional Computing for Efficient Distributed Classification with
Randomized Neural Networks [5.942847925681103]
本研究では,データを中央に保存することも共有することもできない状況下で利用できる分散分類について検討する。
ローカルな分類器を他のエージェントと共有する場合に、ロッキーな圧縮アプローチを適用することにより、分散分類のためのより効率的な解を提案する。
論文 参考訳(メタデータ) (2021-06-02T01:33:56Z) - Towards Optimally Efficient Tree Search with Deep Learning [76.64632985696237]
本稿では,線形モデルから信号整数を推定する古典整数最小二乗問題について検討する。
問題はNPハードであり、信号処理、バイオインフォマティクス、通信、機械学習といった様々な応用でしばしば発生する。
本稿では, 深いニューラルネットワークを用いて, 単純化されたメモリバウンドA*アルゴリズムの最適推定を推定し, HATSアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-07T08:00:02Z) - Communication-efficient distributed eigenspace estimation [31.69089186688224]
我々は,データ行列の先頭不変部分空間を計算するための通信効率のよい分散アルゴリズムを開発した。
提案アルゴリズムは局所解と参照解の間のプロクリスト距離を最小化する新しいアライメント方式を用いる。
本アルゴリズムは,集中型推定器と同様の誤差率を示す。
論文 参考訳(メタデータ) (2020-09-05T02:11:22Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z) - FedPD: A Federated Learning Framework with Optimal Rates and Adaptivity
to Non-IID Data [59.50904660420082]
フェデレートラーニング(FL)は、分散データから学ぶための一般的なパラダイムになっています。
クラウドに移行することなく、さまざまなデバイスのデータを効果的に活用するために、Federated Averaging(FedAvg)などのアルゴリズムでは、"Computation then aggregate"(CTA)モデルを採用している。
論文 参考訳(メタデータ) (2020-05-22T23:07:42Z) - Scalable Distributed Approximation of Internal Measures for Clustering
Evaluation [5.144809478361603]
クラスタリング評価のための内部測度はシルエット係数であり、計算には2つの距離計算が必要である。
本稿では,任意の距離に基づいてクラスタリングの評価を行うための厳密な近似を計算した最初のスケーラブルアルゴリズムを提案する。
また,このアルゴリズムは凝集や分離などのクラスタリング品質の他の内部指標の厳密な近似に適応可能であることも証明した。
論文 参考訳(メタデータ) (2020-03-03T10:28:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。