論文の概要: PAC Learning Linear Thresholds from Label Proportions
- arxiv url: http://arxiv.org/abs/2310.10098v1
- Date: Mon, 16 Oct 2023 05:59:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 16:08:50.892374
- Title: PAC Learning Linear Thresholds from Label Proportions
- Title(参考訳): ラベルから線形閾値を学習するPAC
- Authors: Anand Brahmbhatt, Rishi Saket and Aravindan Raghuveer
- Abstract要約: ラベルパーセンテージ(LLP)からの学習は教師付き学習の一般化である。
ラベル比のランダムバッグへのアクセスを与えられた場合, LTF を用いて LTF を効率よく学習できることを示す。
学習アルゴリズムの実験的評価と,[Saket'21, Saket'22] とランダム LTF との比較を含む。
- 参考スコア(独自算出の注目度): 13.58949814915442
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning from label proportions (LLP) is a generalization of supervised
learning in which the training data is available as sets or bags of
feature-vectors (instances) along with the average instance-label of each bag.
The goal is to train a good instance classifier. While most previous works on
LLP have focused on training models on such training data, computational
learnability of LLP was only recently explored by [Saket'21, Saket'22] who
showed worst case intractability of properly learning linear threshold
functions (LTFs) from label proportions. However, their work did not rule out
efficient algorithms for this problem on natural distributions.
In this work we show that it is indeed possible to efficiently learn LTFs
using LTFs when given access to random bags of some label proportion in which
feature-vectors are, conditioned on their labels, independently sampled from a
Gaussian distribution $N(\mathbf{\mu}, \mathbf{\Sigma})$. Our work shows that a
certain matrix -- formed using covariances of the differences of
feature-vectors sampled from the bags with and without replacement --
necessarily has its principal component, after a transformation, in the
direction of the normal vector of the LTF. Our algorithm estimates the means
and covariance matrices using subgaussian concentration bounds which we show
can be applied to efficiently sample bags for approximating the normal
direction. Using this in conjunction with novel generalization error bounds in
the bag setting, we show that a low error hypothesis LTF can be identified. For
some special cases of the $N(\mathbf{0}, \mathbf{I})$ distribution we provide a
simpler mean estimation based algorithm. We include an experimental evaluation
of our learning algorithms along with a comparison with those of [Saket'21,
Saket'22] and random LTFs, demonstrating the effectiveness of our techniques.
- Abstract(参考訳): learning from label proportions(llp)は、各バッグの平均インスタンスラベルと共に、トレーニングデータを特徴ベクトル(インスタンス)のセットまたはバッグとして利用できる教師付き学習の一般化である。
目標は、優れたインスタンス分類器をトレーニングすることだ。
LLPに関するこれまでのほとんどの研究は、そのようなトレーニングデータに基づくトレーニングモデルに重点を置いていたが、ラベル比率から線形しきい値関数(LTF)を適切に学習する最悪のケース抽出可能性を示した [Saket'21, Saket'22] によって、LLPの計算学習性は、最近調査されたばかりである。
しかし、それらの研究は自然分布に関するこの問題に対する効率的なアルゴリズムを除外しなかった。
本研究は, ガウス分布$N(\mathbf{\mu}, \mathbf{\Sigma})$から独立にサンプリングしたラベルに, 特徴ベクトルが条件付のラベル比のランダムなバッグへのアクセスを与えると, LTF を用いて LTF を効率的に学習できることを示す。
本研究は, 袋から採取した特徴ベクトルの相違と交換せずに生成した特徴ベクトルの相違から得られる行列が, 変換後, LTFの正規ベクトルの方向に主成分を有することを示す。
提案アルゴリズムは,正規方向を近似する袋を効率よくサンプリングするために,ガウス濃度境界を用いた平均と共分散行列を推定する。
これをバッグ設定における新しい一般化誤差境界と組み合わせることで、低誤差仮説 LTF が同定可能であることを示す。
n(\mathbf{0}, \mathbf{i})$ 分布の特別な場合については、より単純な平均推定に基づくアルゴリズムを提供する。
学習アルゴリズムの実験的評価と,[Saket'21, Saket'22] とランダム LTF との比較を行い,本手法の有効性を実証した。
関連論文リスト
- Weak to Strong Learning from Aggregate Labels [9.804335415337071]
本研究では,そのような学習袋にアグリゲートラベルを付けた弱い学習者を用いて,強力な学習者を得るという課題について検討する。
弱い学習者はトレーニングバッグに一定精度1を有し、強い学習者の精度は任意に1に近づくことができる。
我々の研究は、LLPで同じことを達成するアルゴリズムを用いて、アグリゲーションラベルから弱いから強い学習を理論的に研究した最初のものである。
論文 参考訳(メタデータ) (2024-11-09T14:56:09Z) - Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - All Points Matter: Entropy-Regularized Distribution Alignment for
Weakly-supervised 3D Segmentation [67.30502812804271]
擬似ラベルは、弱い教師付き3Dセグメンテーションタスクに広く使われており、学習に使えるのはスパース・グラウンド・トラス・ラベルのみである。
本稿では,生成した擬似ラベルを正規化し,擬似ラベルとモデル予測とのギャップを効果的に狭めるための新しい学習戦略を提案する。
論文 参考訳(メタデータ) (2023-05-25T08:19:31Z) - Easy Learning from Label Proportions [17.71834385754893]
Easyllpは、アグリゲーションラベルに基づいた、柔軟で簡単に実装可能なデバイアス方式である。
我々の手法は、任意のモデルが個々のレベルで予想される損失を正確に見積もることができる。
論文 参考訳(メタデータ) (2023-02-06T20:41:38Z) - Generalized Differentiable RANSAC [95.95627475224231]
$nabla$-RANSACは、ランダム化された堅牢な推定パイプライン全体を学ぶことができる、微分可能なRANSACである。
$nabla$-RANSACは、精度という点では最先端のシステムよりも優れているが、精度は低い。
論文 参考訳(メタデータ) (2022-12-26T15:13:13Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - TabMixer: Excavating Label Distribution Learning with Small-scale
Features [10.498049147922258]
ラベル分布学習(LDL)は、単一ラベル値を記述度に変換することで、インスタンスのポリセミーを表現することを目的としたマルチラベル学習とは異なる。
残念ながら、ラベル分布データセットの特徴空間は、人的要因と特徴抽出器の誘導バイアスが特徴空間の不確実性を引き起こす。
我々は,LDLタスクにおける問題を軽減するため,特徴空間の不確実性向上をモデル化する。
提案アルゴリズムは,他のLDLアルゴリズムと比較して,複数のベンチマークで比較できる。
論文 参考訳(メタデータ) (2022-10-25T09:18:15Z) - Trustable Co-label Learning from Multiple Noisy Annotators [68.59187658490804]
監督されたディープラーニングは、大量の注釈付き例に依存している。
典型的な方法は、複数のノイズアノテータから学習することである。
本稿では,emphTrustable Co-label Learning (TCL)と呼ばれるデータ効率のよい手法を提案する。
論文 参考訳(メタデータ) (2022-03-08T16:57:00Z) - Fast learning from label proportions with small bags [0.0]
ラベルパーセンテージ(LLP)から学ぶ場合、インスタンスはバッグにグループ化され、トレーニングバッグの相対クラスパーセンテージが与えられたインスタンス分類器を学習する。
本研究では,全ての一貫したラベルの組み合わせを明示的に考慮し,より効率的なアルゴリズムを設計できる小袋の事例に焦点を当てる。
論文 参考訳(メタデータ) (2021-10-07T13:11:18Z) - Coping with Label Shift via Distributionally Robust Optimisation [72.80971421083937]
分散ロバスト最適化(DRO)に基づく目的最小化モデルを提案する。
そこで我々は,提案した目的を最適化するために,大規模問題に適した勾配降下近位ミラー上昇アルゴリズムを設計し,解析する。
論文 参考訳(メタデータ) (2020-10-23T08:33:04Z) - Rethinking Curriculum Learning with Incremental Labels and Adaptive
Compensation [35.593312267921256]
人間と同様に、ディープネットワークは、サンプルが組織化され、意味のある順序やカリキュラムで導入されたときに、よりよく学習することが示されている。
インクリメンタルラベルと適応補償を用いた学習(LILAC)を提案する。
論文 参考訳(メタデータ) (2020-01-13T21:00:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。