論文の概要: Optimal 1-NN Prototypes for Pathological Geometries
- arxiv url: http://arxiv.org/abs/2011.00228v1
- Date: Sat, 31 Oct 2020 10:15:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 04:30:07.979528
- Title: Optimal 1-NN Prototypes for Pathological Geometries
- Title(参考訳): 病理ジオメトリの最適1-nnプロトタイプ
- Authors: Ilia Sucholutsky, Matthias Schonlau
- Abstract要約: トレーニングデータセットのサイズを減らすためにプロトタイプ手法を使用することで、分類の計算コストを大幅に削減することができる。
与えられたデータセットの最適なプロトタイプを見つけることは困難であり、代わりにアルゴリズムが使われる。
本稿では, ほぼ最適な分類器のプロトタイプをこの設定で発見するアルゴリズムを提案し, 理論的結果を実証的に検証する。
- 参考スコア(独自算出の注目度): 13.70633147306388
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Using prototype methods to reduce the size of training datasets can
drastically reduce the computational cost of classification with instance-based
learning algorithms like the k-Nearest Neighbour classifier. The number and
distribution of prototypes required for the classifier to match its original
performance is intimately related to the geometry of the training data. As a
result, it is often difficult to find the optimal prototypes for a given
dataset, and heuristic algorithms are used instead. However, we consider a
particularly challenging setting where commonly used heuristic algorithms fail
to find suitable prototypes and show that the optimal prototypes can instead be
found analytically. We also propose an algorithm for finding nearly-optimal
prototypes in this setting, and use it to empirically validate the theoretical
results.
- Abstract(参考訳): トレーニングデータセットのサイズを減らすためにプロトタイプを使用すると、k-nearest近傍の分類器のようなインスタンスベースの学習アルゴリズムによる分類の計算コストが劇的に削減される。
分類器が本来の性能に合致するために必要なプロトタイプの数と分布は、トレーニングデータの幾何と密接な関係がある。
その結果、与えられたデータセットの最適なプロトタイプを見つけることはしばしば困難であり、代わりにヒューリスティックアルゴリズムが使用される。
しかし、一般に使用されるヒューリスティックアルゴリズムが適切なプロトタイプを見つけられず、その代わりに最適なプロトタイプが分析的に発見できるという、特に困難な設定を考える。
また,この設定でほぼ最適に近いプロトタイプを探索するアルゴリズムを提案し,理論結果の実証的検証を行う。
関連論文リスト
- Accelerating prototype selection with spatial abstraction [0.0]
本稿では,既存のプロトタイプ選択手法を高速化するためのアプローチを提案する。
空間分割の概念を用いてデータセットの抽象的な表現を構築する。
その後、提案手法により選択された候補に対して、いくつかの従来のプロトタイプ選択アルゴリズムを適用することができる。
論文 参考訳(メタデータ) (2024-03-16T21:34:24Z) - Rethinking Semantic Segmentation: A Prototype View [126.59244185849838]
学習不可能なプロトタイプをベースとした非パラメトリックセマンティックセマンティックセマンティクスモデルを提案する。
我々のフレームワークは、いくつかのデータセットに対して魅力的な結果をもたらす。
この作業が、現在のデファクトセマンティックセグメンテーションモデル設計を再考することを期待しています。
論文 参考訳(メタデータ) (2022-03-28T21:15:32Z) - A Closer Look at Prototype Classifier for Few-shot Image Classification [28.821731837776593]
プロトタイプの分類器は微調整やメタラーニングを伴わずに等しく機能することを示す。
本稿では, 特徴ベクトルのノルムの分散に着目し, 性能を向上できることを示す。
論文 参考訳(メタデータ) (2021-10-11T08:28:43Z) - Estimating leverage scores via rank revealing methods and randomization [50.591267188664666]
任意のランクの正方形密度あるいはスパース行列の統計レバレッジスコアを推定するアルゴリズムについて検討した。
提案手法は,高密度およびスパースなランダム化次元性還元変換の合成と階調明細化法を組み合わせることに基づく。
論文 参考訳(メタデータ) (2021-05-23T19:21:55Z) - One Line To Rule Them All: Generating LO-Shot Soft-Label Prototypes [0.0]
プロトタイプ生成メソッドは、トレーニングデータセットを正確に表現する小さな合成観測セットを作成することを目指している。
ソフトラベルをプロトタイプに割り当てることで、小さなプロトタイプセットが元のトレーニングデータセットを正確に表現できるようになります。
データ内のクラス数よりもプロトタイプが少ない場合でも、表現精度を維持したソフトラベルラインを生成するための新しいモジュラー方式を提案します。
論文 参考訳(メタデータ) (2021-02-15T20:21:29Z) - Towards Optimally Efficient Tree Search with Deep Learning [76.64632985696237]
本稿では,線形モデルから信号整数を推定する古典整数最小二乗問題について検討する。
問題はNPハードであり、信号処理、バイオインフォマティクス、通信、機械学習といった様々な応用でしばしば発生する。
本稿では, 深いニューラルネットワークを用いて, 単純化されたメモリバウンドA*アルゴリズムの最適推定を推定し, HATSアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-07T08:00:02Z) - An AI-Assisted Design Method for Topology Optimization Without
Pre-Optimized Training Data [68.8204255655161]
トポロジ最適化に基づくAI支援設計手法を提示し、最適化された設計を直接的に得ることができる。
設計は、境界条件と入力データとしての充填度に基づいて、人工ニューラルネットワーク、予測器によって提供される。
論文 参考訳(メタデータ) (2020-12-11T14:33:27Z) - Online Model Selection for Reinforcement Learning with Function
Approximation [50.008542459050155]
我々は、$tildeO(L5/6 T2/3)$ regretで最適な複雑性に適応するメタアルゴリズムを提案する。
また、メタアルゴリズムは、インスタンス依存の後悔境界を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-11-19T10:00:54Z) - FedPD: A Federated Learning Framework with Optimal Rates and Adaptivity
to Non-IID Data [59.50904660420082]
フェデレートラーニング(FL)は、分散データから学ぶための一般的なパラダイムになっています。
クラウドに移行することなく、さまざまなデバイスのデータを効果的に活用するために、Federated Averaging(FedAvg)などのアルゴリズムでは、"Computation then aggregate"(CTA)モデルを採用している。
論文 参考訳(メタデータ) (2020-05-22T23:07:42Z) - Discrete-Valued Latent Preference Matrix Estimation with Graph Side
Information [12.836994708337144]
最適なサンプルの複雑さにマッチするアルゴリズムを開発する。
我々のアルゴリズムはエラーをモデル化し、予測性能の点で既存のアルゴリズムより優れている。
論文 参考訳(メタデータ) (2020-03-16T06:29:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。