論文の概要: Should Decision-Makers Reveal Classifiers in Online Strategic Classification?
- arxiv url: http://arxiv.org/abs/2506.01936v1
- Date: Mon, 02 Jun 2025 17:53:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 01:42:09.336471
- Title: Should Decision-Makers Reveal Classifiers in Online Strategic Classification?
- Title(参考訳): オンライン戦略分類における意思決定者による分類法の検討
- Authors: Han Shao, Shuo Xie, Kunhe Yang,
- Abstract要約: エージェントの現在の分類器へのアクセス制限が意思決定者のパフォーマンスに与える影響について検討する。
この設定では、意思決定者は、完全な知識設定よりも多くの間違いを発生させる。
以上の結果から,分類器へのアクセスを控えることによって,意思決定者のパフォーマンスを低下させる可能性が示唆された。
- 参考スコア(独自算出の注目度): 13.126208719681346
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Strategic classification addresses a learning problem where a decision-maker implements a classifier over agents who may manipulate their features in order to receive favorable predictions. In the standard model of online strategic classification, in each round, the decision-maker implements and publicly reveals a classifier, after which agents perfectly best respond based on this knowledge. However, in practice, whether to disclose the classifier is often debated -- some decision-makers believe that hiding the classifier can prevent misclassification errors caused by manipulation. In this paper, we formally examine how limiting the agents' access to the current classifier affects the decision-maker's performance. Specifically, we consider an extended online strategic classification setting where agents lack direct knowledge about the current classifier and instead manipulate based on a weighted average of historically implemented classifiers. Our main result shows that in this setting, the decision-maker incurs $(1-\gamma)^{-1}$ or $k_{\text{in}}$ times more mistakes compared to the full-knowledge setting, where $k_{\text{in}}$ is the maximum in-degree of the manipulation graph (representing how many distinct feature vectors can be manipulated to appear as a single one), and $\gamma$ is the discount factor indicating agents' memory of past classifiers. Our results demonstrate how withholding access to the classifier can backfire and degrade the decision-maker's performance in online strategic classification.
- Abstract(参考訳): 戦略分類は、意思決定者が適切な予測を受けるために特徴を操作できるエージェントに対して分類器を実装する学習問題に対処する。
オンライン戦略分類の標準モデルでは、各ラウンドにおいて、意思決定者は、その知識に基づいてエージェントが完全に応答する分類器を実装し、公開する。
しかし、実際には、分類器の開示がしばしば議論される。一部の意思決定者は、分類器の隠蔽は操作によって生じる誤分類エラーを防ぐことができると信じている。
本稿では,エージェントの現在の分類器へのアクセス制限が意思決定者のパフォーマンスにどのように影響するかを正式に検討する。
具体的には、エージェントが現在の分類器に関する直接的な知識を欠き、代わりに歴史的に実装された分類器の重み付け平均に基づいて操作する、拡張されたオンライン戦略分類設定について考察する。
この設定では、決定者が$(1-\gamma)^{-1}$または$k_{\text{in}}$の過ちをフル知識設定と比較すると、$k_{\text{in}}$は操作グラフの最大 in-degree であり、$\gamma$は過去の分類器のメモリの割引係数である。
以上の結果から,オンライン戦略分類における意思決定者のパフォーマンスを低下させる要因として,分類器へのアクセスを抑える方法が示された。
関連論文リスト
- Probing Network Decisions: Capturing Uncertainties and Unveiling Vulnerabilities Without Label Information [19.50321703079894]
本稿では, 対実例を用いて分類器の弱点を明らかにするための新しい枠組みを提案する。
本研究では, 画像分類ベンチマークを用いて, 誤分類検出の性能を検証し, その妥当性を検証した。
論文 参考訳(メタデータ) (2025-03-12T05:05:58Z) - Bayesian Strategic Classification [11.439576371711711]
戦略分類における学習者による部分的情報公開の研究について検討する。
エージェントの操作能力を高めつつも,そのような部分的な情報公開が学習者の正確さにどのように寄与するかを示す。
論文 参考訳(メタデータ) (2024-02-13T19:51:49Z) - Mitigating Word Bias in Zero-shot Prompt-based Classifiers [55.60306377044225]
一致したクラス先行は、オラクルの上界性能と強く相関していることを示す。
また,NLPタスクに対するプロンプト設定において,一貫したパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2023-09-10T10:57:41Z) - Anomaly Detection using Ensemble Classification and Evidence Theory [62.997667081978825]
本稿では,アンサンブル分類とエビデンス理論を用いた新しい検出手法を提案する。
固体アンサンブル分類器を構築するためのプール選択戦略が提示される。
我々は異常検出手法の不確実性を利用する。
論文 参考訳(メタデータ) (2022-12-23T00:50:41Z) - Online Selective Classification with Limited Feedback [82.68009460301585]
オンライン学習モデルにおいて、予測者がインスタンスの分類を控える可能性のある選択的分類について検討する。
私たちが考慮している設定の健全な2つの側面は、データが不可避である可能性があるため、データは不可避である可能性があるということです。
smash$tildeO(T1-mu)$ over abstention against Adaptive adversaries. smash$tildeO(T1-mu)$ incurring smash$tildeO(T1-mu)$ over abstention。
論文 参考訳(メタデータ) (2021-10-27T08:00:53Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - Strategic Classification in the Dark [9.281044712121423]
本稿では,分類規則と戦略エージェントの相互作用について検討する。
不透明度の価格を不透明度と透明性戦略燃焼分類器の予測誤差の違いとして定義する。
私たちの実験では、Hardt et al。
強靭な分類器は エージェントを暗く保つことで 影響を受けます
論文 参考訳(メタデータ) (2021-02-23T10:13:54Z) - Learning and Evaluating Representations for Deep One-class
Classification [59.095144932794646]
ディープワンクラス分類のための2段階フレームワークを提案する。
まず,一級データから自己教師付き表現を学習し,学習した表現に基づいて一級分類器を構築する。
実験では、視覚領域の1クラス分類ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2020-11-04T23:33:41Z) - The Role of Randomness and Noise in Strategic Classification [7.972516140165492]
戦略的分類設定における最適分類器の設計問題について検討する。
多くの自然の場合において、与えられた最適解はプレイヤーが特徴ベクトルを決して変更しない構造を持つことを示す。
また、ノイズ信号が平衡結果を改善することも示している。
論文 参考訳(メタデータ) (2020-05-17T21:49:41Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。