論文の概要: Non-Asymptotic Performance of Social Machine Learning Under Limited Data
- arxiv url: http://arxiv.org/abs/2306.09397v1
- Date: Thu, 15 Jun 2023 17:42:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-19 16:27:32.207410
- Title: Non-Asymptotic Performance of Social Machine Learning Under Limited Data
- Title(参考訳): 限定データに基づくソーシャル機械学習の非漸近的性能
- Authors: Ping Hu, Virginia Bordignon, Mert Kayaalp, Ali H. Sayed
- Abstract要約: 本研究では,社会機械学習フレームワークに関連付けられた誤りの確率について検討する。
このフレームワークは、ラベルのないデータのストリームを分散的に分類する問題に対処する。
- 参考スコア(独自算出の注目度): 51.053285698685364
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper studies the probability of error associated with the social
machine learning framework, which involves an independent training phase
followed by a cooperative decision-making phase over a graph. This framework
addresses the problem of classifying a stream of unlabeled data in a
distributed manner. We consider two kinds of classification tasks with limited
observations in the prediction phase, namely, the statistical classification
task and the single-sample classification task. For each task, we describe the
distributed learning rule and analyze the probability of error accordingly. To
do so, we first introduce a stronger consistent training condition that
involves the margin distributions generated by the trained classifiers. Based
on this condition, we derive an upper bound on the probability of error for
both tasks, which depends on the statistical properties of the data and the
combination policy used to combine the distributed classifiers. For the
statistical classification problem, we employ the geometric social learning
rule and conduct a non-asymptotic performance analysis. An exponential decay of
the probability of error with respect to the number of unlabeled samples is
observed in the upper bound. For the single-sample classification task, a
distributed learning rule that functions as an ensemble classifier is
constructed. An upper bound on the probability of error of this ensemble
classifier is established.
- Abstract(参考訳): 本稿では,グラフ上の協調的な意思決定フェーズに続き,独立した学習フェーズを含む社会機械学習フレームワークによる誤りの確率について検討する。
このフレームワークは、ラベルのないデータのストリームを分散的に分類する問題に対処する。
予測段階での観察が限定された2種類の分類課題,すなわち統計的分類タスクと単一サンプル分類タスクを考える。
各タスクについて,分散学習規則を記述し,それに従って誤差の確率を解析する。
そこで我々はまず,訓練された分類器が生成するマージン分布を含む強い一貫した訓練条件を導入する。
この条件に基づき、データの統計的特性と分散分類器を組み合わせるのに使用される組み合わせポリシーに依存する、両方のタスクのエラーの確率の上限を導出する。
統計的分類問題に対しては,幾何学的社会学習規則を採用し,非漸近的パフォーマンス分析を行う。
ラベルなしのサンプル数に対する誤差の確率の指数関数的減衰が上界で観測される。
単一サンプル分類タスクでは、アンサンブル分類器として機能する分散学習ルールを構築する。
このアンサンブル分類器の誤差の確率の上界が確立される。
関連論文リスト
- Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Invariance assumptions for class distribution estimation [1.3053649021965603]
本研究では,データセットシフトによるクラス分布推定の問題について検討する。
トレーニングデータセットでは、機能とクラスラベルの両方が観察され、テストデータセットでは、機能のみが観察される。
論文 参考訳(メタデータ) (2023-11-28T20:57:10Z) - The Selected-completely-at-random Complementary Label is a Practical
Weak Supervision for Multi-class Classification [71.42360409393201]
補完ラベル学習は、弱教師付き学習問題である。
均一分布仮定に依存しない一貫した手法を提案する。
相補的なラベル学習は、負のラベル付きバイナリ分類問題の集合として表現できる。
論文 参考訳(メタデータ) (2023-11-27T02:59:17Z) - Probabilistic Safety Regions Via Finite Families of Scalable Classifiers [2.431537995108158]
監視された分類は、データのパターンを認識して、振る舞いのクラスを分離する。
正準解は、機械学習の数値近似の性質に固有の誤分類誤差を含む。
本稿では,確率論的安全性領域の概念を導入し,入力空間のサブセットとして,誤分類されたインスタンスの数を確率論的に制御する手法を提案する。
論文 参考訳(メタデータ) (2023-09-08T22:40:19Z) - A Statistical Model for Predicting Generalization in Few-Shot
Classification [6.158812834002346]
一般化誤差を予測するために,特徴分布のガウスモデルを導入する。
提案手法は, 相互検証戦略の離脱など, 代替案よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-12-13T10:21:15Z) - Learning from Heterogeneous Data Based on Social Interactions over
Graphs [58.34060409467834]
本研究では,個別のエージェントが異なる次元のストリーミング特徴を観察しながら分類問題の解決を目指す分散アーキテクチャを提案する。
私たちはそれを示します。
戦略により、エージェントはこの高度に異質な環境下で一貫して学習することができる。
私たちはそれを示します。
戦略により、エージェントはこの高度に異質な環境下で一貫して学習することができる。
論文 参考訳(メタデータ) (2021-12-17T12:47:18Z) - Statistical Theory for Imbalanced Binary Classification [8.93993657323783]
最適分類性能は、これまで形式化されていなかったクラス不均衡の特定の性質に依存することを示す。
具体的には、一様クラス不均衡と呼ばれる新しいクラス不均衡のサブタイプを提案する。
これらの結果は、不均衡二項分類に対する最初の有意義な有限サンプル統計理論のいくつかを提供する。
論文 参考訳(メタデータ) (2021-07-05T03:55:43Z) - Theoretical Insights Into Multiclass Classification: A High-dimensional
Asymptotic View [82.80085730891126]
線形多クラス分類の最初の現代的精度解析を行う。
分析の結果,分類精度は分布に依存していることがわかった。
得られた洞察は、他の分類アルゴリズムの正確な理解の道を開くかもしれない。
論文 参考訳(メタデータ) (2020-11-16T05:17:29Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - VaB-AL: Incorporating Class Imbalance and Difficulty with Variational
Bayes for Active Learning [38.33920705605981]
本研究では,クラス不均衡をアクティブラーニングフレームワークに自然に組み込む手法を提案する。
提案手法は,複数の異なるデータセットのタスク分類に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-03-25T07:34:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。