論文の概要: Margin-Independent Online Multiclass Learning via Convex Geometry
- arxiv url: http://arxiv.org/abs/2111.08057v1
- Date: Mon, 15 Nov 2021 19:34:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-17 16:23:23.656325
- Title: Margin-Independent Online Multiclass Learning via Convex Geometry
- Title(参考訳): 凸幾何学によるマルチクラスオンライン学習
- Authors: Guru Guruganesh, Allen Liu, Jon Schneider, Joshua Wang
- Abstract要約: 逆選択されたクエリのストリームが到着し,オンラインでラベルを割り当てなければならない,多クラス分類の問題を考える。
誤分類率を最小化しようとする従来の境界とは異なり、各クエリからその正しいラベルに対応する領域までの総距離を最小化する。
クエリの総数に依存しない損失を達成できることを示す。
- 参考スコア(独自算出の注目度): 16.575369705062535
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of multi-class classification, where a stream of
adversarially chosen queries arrive and must be assigned a label online. Unlike
traditional bounds which seek to minimize the misclassification rate, we
minimize the total distance from each query to the region corresponding to its
correct label. When the true labels are determined via a nearest neighbor
partition -- i.e. the label of a point is given by which of $k$ centers it is
closest to in Euclidean distance -- we show that one can achieve a loss that is
independent of the total number of queries. We complement this result by
showing that learning general convex sets requires an almost linear loss per
query. Our results build off of regret guarantees for the geometric problem of
contextual search. In addition, we develop a novel reduction technique from
multiclass classification to binary classification which may be of independent
interest.
- Abstract(参考訳): 逆選択されたクエリのストリームが到着し,オンラインでラベルを割り当てなければならない,多クラス分類の問題を考える。
誤分類率を最小化しようとする従来の境界とは異なり、各クエリから正しいラベルに対応する領域までの距離を最小化する。
真のラベルが近隣のパーティション(すなわち、ある点のラベルがユークリッド距離に最も近い$k$のセンタによって与えられる)で決定されると、クエリの総数に依存しない損失が得られることを示す。
学習一般凸集合はクエリ毎にほぼ線形な損失を必要とすることを示すことにより,この結果を補完する。
その結果,文脈探索の幾何学的問題に対する後悔の保証が得られた。
また,多クラス分類から二進分類への新しい還元手法を開発し,独立して興味を持つことができる。
関連論文リスト
- Harnessing Superclasses for Learning from Hierarchical Databases [1.835004446596942]
多くの大規模分類問題において、クラスは既知の階層に整理され、通常木として表される。
この種の教師付き階層分類の損失について紹介する。
提案手法では,クロスエントロピーの損失に比較して,計算コストの大幅な増大は伴わない。
論文 参考訳(メタデータ) (2024-11-25T14:39:52Z) - Enhancing Classification with Hierarchical Scalable Query on Fusion
Transformer [0.4129225533930965]
本稿では,学習可能な独立クエリ埋め込みによる階層的手法により,きめ細かい分類を向上する手法を提案する。
階層構造の概念を利用して、あらゆるレベルにわたってスケーラブルなクエリの埋め込みを学びます。
本手法は, 細粒度分類において, 従来の手法よりも11%の精度で性能を向上できる。
論文 参考訳(メタデータ) (2023-02-28T11:00:55Z) - Deep Simplex Classifier for Maximizing the Margin in Both Euclidean and
Angular Spaces [18.309720578916146]
本稿では,ユークリッド空間と角空間の両辺を同時に最大化する新しい分類損失を提案する。
提案手法は,その単純さに拘わらず,オープンセット認識における最先端の精度を実現する。
論文 参考訳(メタデータ) (2022-12-22T14:37:47Z) - Multi-Label Quantification [78.83284164605473]
定量化とは、教師なしデータサンプルにおいて、興味あるクラスの相対周波数の予測子を生成する教師付き学習課題である。
本研究では,その相対頻度をより正確に予測するために,興味あるクラス間の依存関係を活用しようとするクラス有病率値の推定手法を提案する。
論文 参考訳(メタデータ) (2022-11-15T11:29:59Z) - MSE Loss with Outlying Label for Imbalanced Classification [10.305130700118399]
クラス不均衡分類のための外付けラベルを用いた平均二乗誤差(MSE)損失を提案する。
MSE損失は、すべてのクラスのバック伝搬数を等しくし、メトリック学習としてのクラス間の関係を考慮して特徴空間を学習することができる。
高微分クラスと低微分クラスを分離する機能空間を作成することができる。
論文 参考訳(メタデータ) (2021-07-06T05:17:00Z) - Theoretical Insights Into Multiclass Classification: A High-dimensional
Asymptotic View [82.80085730891126]
線形多クラス分類の最初の現代的精度解析を行う。
分析の結果,分類精度は分布に依存していることがわかった。
得られた洞察は、他の分類アルゴリズムの正確な理解の道を開くかもしれない。
論文 参考訳(メタデータ) (2020-11-16T05:17:29Z) - SPL-MLL: Selecting Predictable Landmarks for Multi-Label Learning [87.27700889147144]
我々は、入力(予測可能)に応じて予測しやすく、他の可能なラベル(表現可能)をうまく回復できるランドマークとして、ラベルの小さなサブセットを選択することを提案する。
我々は,ADM(Alternating Direction Method)を用いてこの問題を解決する。実世界のデータセットに関する実証研究により,本手法が他の最先端手法よりも優れた分類性能を実現することを示す。
論文 参考訳(メタデータ) (2020-08-16T11:07:44Z) - Cautious Active Clustering [79.23797234241471]
ユークリッド空間上の未知の確率測度からサンプリングされた点の分類の問題を考える。
我々のアプローチは、未知の確率測度を、各クラスに対する条件付き確率の凸結合として考えることである。
論文 参考訳(メタデータ) (2020-08-03T23:47:31Z) - Rethinking preventing class-collapsing in metric learning with
margin-based losses [81.22825616879936]
メトリクス学習は、視覚的に類似したインスタンスが近接し、異なるインスタンスが分離した埋め込みを求める。
マージンベースの損失は、クラスの全サンプルを埋め込み空間の単一点に投影する傾向がある。
そこで本研究では,各サンプルが最寄りの同一クラスをバッチで選択するように,埋め込み損失の簡易な修正を提案する。
論文 参考訳(メタデータ) (2020-06-09T09:59:25Z) - Multiclass classification by sparse multinomial logistic regression [10.312968200748116]
スパース多項ロジスティック回帰による高次元多クラス分類を考察する。
本稿では,複雑性ペナルティを伴うペナル化最大度に基づく特徴選択手法を提案する。
我々は,小クラスと多数のクラスに対応する2つのレギュレーションが存在することを示した。
論文 参考訳(メタデータ) (2020-03-04T08:44:48Z) - Progressive Identification of True Labels for Partial-Label Learning [112.94467491335611]
部分ラベル学習(Partial-label Learning, PLL)は、典型的な弱教師付き学習問題であり、各トレーニングインスタンスには、真のラベルである候補ラベルのセットが設けられている。
既存のほとんどの手法は、特定の方法で解決しなければならない制約付き最適化として精巧に設計されており、計算複雑性をビッグデータにスケールアップするボトルネックにしている。
本稿では,モデルと最適化アルゴリズムの柔軟性を備えた分類器の新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T08:35:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。