論文の概要: The Active and Noise-Tolerant Strategic Perceptron
- arxiv url: http://arxiv.org/abs/2512.01783v1
- Date: Mon, 01 Dec 2025 15:23:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.921651
- Title: The Active and Noise-Tolerant Strategic Perceptron
- Title(参考訳): 能動・耐雑音性ストラテジックパーセプトロン
- Authors: Maria-Florina Blacan, Hedyeh Beyhaghi,
- Abstract要約: 我々は,Active Perceptronアルゴリズムの修正版[DKM05,YZ17]が,$tildeO(d ln frac1)$ラベルクエリのみを使用して過剰なエラーを$$とすることを示す。
このアルゴリズムは計算的に効率的であり、これらの分布的な仮定の下では、戦略パーセプトロンの以前の研究よりもラベルクエリがかなり少ない。
- 参考スコア(独自算出の注目度): 0.12277343096128711
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We initiate the study of active learning algorithms for classifying strategic agents. Active learning is a well-established framework in machine learning in which the learner selectively queries labels, often achieving substantially higher accuracy and efficiency than classical supervised methods-especially in settings where labeling is costly or time-consuming, such as hiring, admissions, and loan decisions. Strategic classification, however, addresses scenarios where agents modify their features to obtain more favorable outcomes, resulting in observed data that is not truthful. Such manipulation introduces challenges beyond those in learning from clean data. Our goal is to design active and noise-tolerant algorithms that remain effective in strategic environments-algorithms that classify strategic agents accurately while issuing as few label requests as possible. The central difficulty is to simultaneously account for strategic manipulation and preserve the efficiency gains of active learning. Our main result is an algorithm for actively learning linear separators in the strategic setting that preserves the exponential improvement in label complexity over passive learning previously obtained only in the non-strategic case. Specifically, for data drawn uniformly from the unit sphere, we show that a modified version of the Active Perceptron algorithm [DKM05,YZ17] achieves excess error $ε$ using only $\tilde{O}(d \ln \frac{1}ε)$ label queries and incurs at most $\tilde{O}(d \ln \frac{1}ε)$ additional mistakes relative to the optimal classifier, even in the nonrealizable case, when a $\tildeΩ(ε)$ fraction of inputs have inconsistent labels with the optimal classifier. The algorithm is computationally efficient and, under these distributional assumptions, requires substantially fewer label queries than prior work on strategic Perceptron [ABBN21].
- Abstract(参考訳): 戦略エージェントを分類するための能動的学習アルゴリズムの研究を開始する。
アクティブ・ラーニング(英: Active Learning)は、機械学習において、学習者がラベルを選択的に問合せし、古典的な教師付き手法よりもはるかに高い精度と効率を達成する、よく確立されたフレームワークである。
しかし、戦略分類は、エージェントがより好ましい結果を得るために特徴を変更するシナリオに対処し、結果として観測されたデータは真実ではない。
このような操作は、クリーンデータから学ぶこと以上の課題をもたらす。
我々のゴールは、できるだけ少ないラベル要求を発行しながら戦略エージェントを正確に分類する戦略的環境アルゴリズムにおいて有効であるアクティブで耐雑音性のあるアルゴリズムを設計することである。
中心的な困難は、戦略的な操作を同時に説明し、活発な学習の効率性を維持することである。
本研究の主な成果は,非ストラテジックな場合のみ得られる受動的学習よりもラベル複雑性の指数関数的改善を保ちながら,戦略的条件下で線形分離器を積極的に学習するアルゴリズムである。
具体的には、単位球面から均一に引き出されたデータに対して、Active Perceptronアルゴリズムの修正版であるDKM05,YZ17]は、$\tilde{O}(d \ln \frac{1}ε)$ラベルクエリのみを使用して過剰なエラーを$ε$で達成し、最も高い値である$\tilde{O}(d \ln \frac{1}ε)$値が最適な分類器に対する追加の誤りであることを示す。
このアルゴリズムは計算的に効率的であり、これらの分布仮定の下では、戦略パーセプトロン [ABBN21] の以前の作業よりもかなり少ないラベルクエリを必要とする。
関連論文リスト
- GLiClass: Generalist Lightweight Model for Sequence Classification Tasks [49.2639069781367]
本稿では,シーケンス分類タスクにGLiNERアーキテクチャを適用する新しい手法であるGLiClassを提案する。
提案手法は,ゼロショットおよび少数ショット学習シナリオに必要な柔軟性を維持しつつ,埋め込み方式に匹敵する高い精度と効率を実現する。
論文 参考訳(メタデータ) (2025-08-11T06:22:25Z) - Probably Approximately Precision and Recall Learning [60.00180898830079]
機械学習における重要な課題は、一方的なフィードバックの頻度である。
本稿では,確率的近似(PAC)フレームワークを導入し,各入力をラベルの集合にマッピングする仮説を定めている。
我々は、正のデータのみから学習する新しいアルゴリズムを開発し、実現可能な場合において最適なサンプル複雑性を実現する。
論文 参考訳(メタデータ) (2024-11-20T04:21:07Z) - Unleashing the Potential of Regularization Strategies in Learning with
Noisy Labels [65.92994348757743]
クロスエントロピー損失を用いた単純なベースラインと、広く使われている正規化戦略を組み合わせることで、最先端の手法より優れていることを示す。
この結果から,正規化戦略の組み合わせは,ノイズラベルを用いた学習の課題に対処する上で,複雑なアルゴリズムよりも効果的であることが示唆された。
論文 参考訳(メタデータ) (2023-07-11T05:58:20Z) - Algorithm Selection for Deep Active Learning with Imbalanced Datasets [11.902019233549474]
アクティブな学習は、ディープネットワークのトレーニングに必要なラベル付きサンプルの数を減らすことを目的としている。
アクティブな学習戦略が与えられたアプリケーションでうまく機能するか、どれが最善であるかを事前に知るのは難しい。
深層能動学習のための適応型アルゴリズム選択手法を提案する。
論文 参考訳(メタデータ) (2023-02-14T19:59:49Z) - An Efficient Active Learning Pipeline for Legal Text Classification [2.462514989381979]
法律分野における事前学習言語モデルを用いて,能動的学習を効果的に活用するためのパイプラインを提案する。
我々は、知識蒸留を用いてモデルの埋め込みを意味論的意味のある空間に導く。
分類タスクに適応したContract-NLIとLEDGARベンチマークの実験により,本手法が標準AL戦略より優れていることが示された。
論文 参考訳(メタデータ) (2022-11-15T13:07:02Z) - Efficient Active Learning with Abstention [12.315392649501101]
計算効率のよい能動学習アルゴリズムを開発した。
このアルゴリズムの重要な特徴は、アクティブな学習でしばしば見られる望ましくない「ノイズ探索」行動を避けることである。
論文 参考訳(メタデータ) (2022-03-31T18:34:57Z) - Semi-supervised Batch Active Learning via Bilevel Optimization [89.37476066973336]
両レベル最適化によるデータ要約問題として,本手法を定式化する。
本手法は,ラベル付きサンプルがほとんど存在しない場合,レジーム内のキーワード検出タスクにおいて極めて有効であることを示す。
論文 参考訳(メタデータ) (2020-10-19T16:53:24Z) - Meta-learning with Stochastic Linear Bandits [120.43000970418939]
我々は、よく知られたOFULアルゴリズムの正規化バージョンを実装するバンディットアルゴリズムのクラスを考える。
我々は,タスク数の増加とタスク分散の分散が小さくなると,タスクを個別に学習する上で,我々の戦略が大きな優位性を持つことを理論的および実験的に示す。
論文 参考訳(メタデータ) (2020-05-18T08:41:39Z) - Progressive Identification of True Labels for Partial-Label Learning [112.94467491335611]
部分ラベル学習(Partial-label Learning, PLL)は、典型的な弱教師付き学習問題であり、各トレーニングインスタンスには、真のラベルである候補ラベルのセットが設けられている。
既存のほとんどの手法は、特定の方法で解決しなければならない制約付き最適化として精巧に設計されており、計算複雑性をビッグデータにスケールアップするボトルネックにしている。
本稿では,モデルと最適化アルゴリズムの柔軟性を備えた分類器の新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T08:35:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。