論文の概要: The Strategic Perceptron
- arxiv url: http://arxiv.org/abs/2008.01710v2
- Date: Mon, 22 Mar 2021 21:50:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 23:46:40.425211
- Title: The Strategic Perceptron
- Title(参考訳): 戦略的知覚論
- Authors: Saba Ahmadi, Hedyeh Beyhaghi, Avrim Blum, Keziah Naggita
- Abstract要約: 正であると分類されたい戦略エージェントが存在する場合、パーセプトロンアルゴリズムはエージェントの真の位置を観察できないかもしれない。
2つの解の間に永久に振動する予測器の例を示す。
私たちの主な貢献は、戦略エージェントの存在下で多くの誤りを犯すPerceptronスタイルのアルゴリズムの修正です。
- 参考スコア(独自算出の注目度): 11.078814063722803
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The classical Perceptron algorithm provides a simple and elegant procedure
for learning a linear classifier. In each step, the algorithm observes the
sample's position and label and updates the current predictor accordingly if it
makes a mistake. However, in presence of strategic agents that desire to be
classified as positive and that are able to modify their position by a limited
amount, the classifier may not be able to observe the true position of agents
but rather a position where the agent pretends to be. Unlike the original
setting with perfect knowledge of positions, in this situation the Perceptron
algorithm fails to achieve its guarantees, and we illustrate examples with the
predictor oscillating between two solutions forever, making an unbounded number
of mistakes even though a perfect large-margin linear classifier exists. Our
main contribution is providing a modified Perceptron-style algorithm which
makes a bounded number of mistakes in presence of strategic agents with both
$\ell_2$ and weighted $\ell_1$ manipulation costs. In our baseline model,
knowledge of the manipulation costs (i.e., the extent to which an agent may
manipulate) is assumed. In our most general model, we relax this assumption and
provide an algorithm which learns and refines both the classifier and its cost
estimates to achieve good mistake bounds even when manipulation costs are
unknown.
- Abstract(参考訳): 古典的パーセプトロンアルゴリズムは、線形分類器を学習するための単純でエレガントな手順を提供する。
各ステップにおいて、アルゴリズムはサンプルの位置とラベルを観察し、エラーが発生した場合に応じて現在の予測器を更新する。
しかし、肯定的に分類され、限られた量でその位置を変更することができる戦略的なエージェントが存在する場合、分類器は、エージェントの真の位置を観察できず、エージェントのふりをする位置を観察することができる。
位置の完全な知識を持つ元の設定とは異なり、この状況ではパーセプトロンアルゴリズムはその保証を達成できず、2つの解の間を永久に振動する予測器を持つ例を示し、完全大マージン線形分類器が存在するにもかかわらず無限個の誤りを生じさせる。
我々の主な貢献は、$\ell_2$と重み付き$\ell_1$操作コストの両方を持つ戦略エージェントの存在下で、多くの誤りを境界づけるパーセプトロンスタイルの修正アルゴリズムを提供することです。
我々のベースラインモデルでは、操作コスト(エージェントが操作できる範囲)に関する知識が仮定される。
最も一般的なモデルでは、この仮定を緩和し、操作コストが未知である場合でも、分類器とコスト推定の両方を学習し、洗練するアルゴリズムを提供する。
関連論文リスト
- Mistake, Manipulation and Margin Guarantees in Online Strategic Classification [0.0]
到着した各エージェントが真の特徴ベクトルを操作して正の予測ラベルを得るという,オンライン戦略分類問題を考える。
我々は、様々なエージェントコスト構造に対する収束、有限の誤り、有限の操作保証を証明した。
実データおよび合成データに関する数値的な研究により、新しいアルゴリズムは、マージン、操作数、誤り数において、以前のアルゴリズムよりも優れていることが示された。
論文 参考訳(メタデータ) (2024-03-27T01:05:45Z) - Learnability Gaps of Strategic Classification [68.726857356532]
我々は,戦略的分類と標準学習の間にある学習可能性のギャップという,根本的な問題に対処することに注力する。
ほぼ厳密なサンプルの複雑さと後悔の限界を提供し、以前の結果よりも大幅に改善します。
この設定における我々のアルゴリズムは、独立して興味を持ち、マルチラベル学習のような他の問題にも適用できる。
論文 参考訳(メタデータ) (2024-02-29T16:09:19Z) - Regularized Linear Regression for Binary Classification [20.710343135282116]
正規化線形回帰は、トレーニングセットがノイズラベルを持つ二項分類問題に対して有望なアプローチである。
十分な正則化強度に対して、最適重みは反対符号の2つの値の周りに集中していることを示す。
多くの場合、各重みの1ビットに対する「圧縮」が性能の損失を極めて少なくする。
論文 参考訳(メタデータ) (2023-11-03T23:18:21Z) - When Does Confidence-Based Cascade Deferral Suffice? [69.28314307469381]
カスケードは、推論コストをサンプル毎に適応的に変化させる古典的な戦略である。
deferralルールは、シーケンス内の次の分類子を呼び出すか、または予測を終了するかを決定する。
カスケードの構造に執着しているにもかかわらず、信頼に基づく推論は実際は極めてうまく機能することが多い。
論文 参考訳(メタデータ) (2023-07-06T04:13:57Z) - Fundamental Bounds on Online Strategic Classification [13.442155854812528]
戦略設定において,決定論的アルゴリズムが$o(Delta)$の誤りを達成できないことを示す。
また、これを非依存の設定に拡張し、$Delta$乗法後悔のアルゴリズムを得る。
我々は,不愉快な,適応的な両敵に対して,サブ線形後悔境界を実現するランダム化アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-02-23T22:39:43Z) - Is the Performance of My Deep Network Too Good to Be True? A Direct
Approach to Estimating the Bayes Error in Binary Classification [86.32752788233913]
分類問題において、ベイズ誤差は、最先端の性能を持つ分類器を評価するための基準として用いられる。
我々はベイズ誤差推定器を提案する。そこでは,クラスの不確かさを示すラベルの平均値のみを評価できる。
我々の柔軟なアプローチは、弱い教師付きデータであってもベイズ誤差を推定できる。
論文 参考訳(メタデータ) (2022-02-01T13:22:26Z) - Dealing With Misspecification In Fixed-Confidence Linear Top-m
Identification [0.0]
固定誤差率$delta$(固定信頼度Top-m識別)の下で最大の手段を持つmアームの識別問題について検討する。
この問題は、特に医療やレコメンデーションシステムにおける実践的な応用によって動機付けられている。
論文 参考訳(メタデータ) (2021-11-02T10:27:17Z) - ReLU Regression with Massart Noise [52.10842036932169]
本稿では、ReLU回帰の基本的問題として、Rectified Linear Units(ReLU)をデータに適合させることを目標としている。
我々は自然およびよく研究された半ランダムノイズモデルであるMassartノイズモデルにおけるReLU回帰に着目した。
このモデルにおいて,パラメータの正確な回復を実現する効率的なアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-09-10T02:13:22Z) - Calibrating Predictions to Decisions: A Novel Approach to Multi-Class
Calibration [118.26862029820447]
我々は、下流の意思決定者に対して、予測された分布と真の分布を区別不能にする必要がある新しい概念、即時校正を導入します。
決定キャリブレーションは、皮膚病変の判定と、現代のニューラルネットワークを用いたImageNet分類を改善する。
論文 参考訳(メタデータ) (2021-07-12T20:17:28Z) - Autocalibration and Tweedie-dominance for Insurance Pricing with Machine
Learning [0.0]
逸脱の最小化には, 下位部分モーメントの重み付き差分の積分と, 特定のスケールで測定されたバイアスとのトレードオフが伴うことが示された。
バイアスを補正する新しい手法は、分析にさらに局所的なGLMステップを追加する。
凸順序は、競合するモデルを比較する自然なツールであるように見える。
論文 参考訳(メタデータ) (2021-03-05T12:40:30Z) - Uncertainty Sets for Image Classifiers using Conformal Prediction [112.54626392838163]
本稿では,任意の分類器を修飾して真のラベルを含む予測集合を,90%などのユーザ指定確率で出力するアルゴリズムを提案する。
このアルゴリズムはPlatetスケーリングのようにシンプルで高速だが、すべてのモデルとデータセットに対して正式な有限サンプルカバレッジを保証する。
提案手法は,Plattスケーリング後の可逆クラスの小さなスコアを正規化することにより,より安定した予測セットを与えるために,既存の共形予測アルゴリズムを改良する。
論文 参考訳(メタデータ) (2020-09-29T17:58:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。