論文の概要: Bayesian Strategic Classification
- arxiv url: http://arxiv.org/abs/2402.08758v1
- Date: Tue, 13 Feb 2024 19:51:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-15 17:57:39.409184
- Title: Bayesian Strategic Classification
- Title(参考訳): ベイズ戦略分類
- Authors: Lee Cohen, Saeed Sharifi-Malvajerdi, Kevin Stangl, Ali Vakilian, Juba
Ziani
- Abstract要約: 戦略分類における学習者による部分的情報公開の研究について検討する。
エージェントの操作能力を高めつつも,そのような部分的な情報公開が学習者の正確さにどのように寄与するかを示す。
- 参考スコア(独自算出の注目度): 11.439576371711711
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In strategic classification, agents modify their features, at a cost, to
ideally obtain a positive classification from the learner's classifier. The
typical response of the learner is to carefully modify their classifier to be
robust to such strategic behavior. When reasoning about agent manipulations,
most papers that study strategic classification rely on the following strong
assumption: agents fully know the exact parameters of the deployed classifier
by the learner. This often is an unrealistic assumption when using complex or
proprietary machine learning techniques in real-world prediction tasks.
We initiate the study of partial information release by the learner in
strategic classification. We move away from the traditional assumption that
agents have full knowledge of the classifier. Instead, we consider agents that
have a common distributional prior on which classifier the learner is using.
The learner in our model can reveal truthful, yet not necessarily complete,
information about the deployed classifier to the agents. The learner's goal is
to release just enough information about the classifier to maximize accuracy.
We show how such partial information release can, counter-intuitively, benefit
the learner's accuracy, despite increasing agents' abilities to manipulate.
We show that while it is intractable to compute the best response of an agent
in the general case, there exist oracle-efficient algorithms that can solve the
best response of the agents when the learner's hypothesis class is the class of
linear classifiers, or when the agents' cost function satisfies a natural
notion of submodularity as we define. We then turn our attention to the
learner's optimization problem and provide both positive and negative results
on the algorithmic problem of how much information the learner should release
about the classifier to maximize their expected accuracy.
- Abstract(参考訳): 戦略的分類において、エージェントは、学習者の分類器から肯定的な分類を得るために、その特徴をコストで修正する。
学習者の典型的な反応は、その戦略行動に対して堅牢であるように分類器を慎重に修正することである。
エージェント操作について推論する場合、戦略分類を研究するほとんどの論文は、以下の強い仮定に依存している: エージェントは学習者によってデプロイされた分類器の正確なパラメータを完全に知る。
これは、現実の予測タスクで複雑またはプロプライエタリな機械学習技術を使用する場合、しばしば非現実的な仮定である。
戦略分類における学習者による部分的情報公開の研究を開始する。
我々はエージェントが分類器の知識を十分に持っているという従来の仮定から脱却する。
代わりに、学習者がどの分類器を使うかに先立って共通の分布を持つエージェントを考える。
私たちのモデルの学習者は、エージェントにデプロイされた分類器に関する情報を真に明らかにするが、必ずしも完全ではない。
学習者の目標は、精度を最大化するために分類器に関する十分な情報を公開することである。
エージェントの操作能力を高めつつも,そのような部分的な情報公開が学習者の正確さにどのように寄与するかを示す。
一般の場合、エージェントの最良の応答を計算することは困難であるが、学習者の仮説クラスが線形分類器のクラスである場合や、エージェントのコスト関数が定義した部分モジュラリティの自然な概念を満たす場合、エージェントの最良の応答を解くことができるオラクル効率のアルゴリズムが存在することを示す。
次に,学習者の最適化問題に注意を向け,学習者の期待する精度を最大化するために,学習者がどの程度の情報を公開するべきかというアルゴリズム上の問題に対して,肯定的かつ否定的な結果を与える。
関連論文リスト
- Strategic Classification With Externalities [11.36782598786846]
戦略分類問題の新しい変種を提案する。
実世界のアプリケーションによって動機づけられた我々のモデルは、あるエージェントの操作が他のエージェントに影響を与えることを決定的に許している。
特定の仮定の下では、このエージェント操作ゲームの純粋なナッシュ平衡はユニークであり、効率的に計算できることが示される。
論文 参考訳(メタデータ) (2024-10-10T15:28:04Z) - Minimax Group Fairness in Strategic Classification [8.250258160056514]
戦略的分類において、エージェントは、学習者の分類器から肯定的な分類結果を受け取るために、その特徴をコストで操作する。
精度保証に加えて,グループフェアネス保証を有する学習目標について検討する。
我々は、複数のグループからなるエージェントの集団間のフェアネスを意識したスタックルバーグゲームを形式化し、各グループは独自のコスト関数を持つ。
論文 参考訳(メタデータ) (2024-10-03T14:22:55Z) - Classification with a Network of Partially Informative Agents: Enabling Wise Crowds from Individually Myopic Classifiers [1.3417382097912094]
異種および部分的情報的エージェントのピア・ツー・ピアネットワークを用いた分類の問題点を考察する。
本稿では,局所的確率を用いた反復アルゴリズムを提案し,各エージェントのすべてのクラスに対する局所的信念を更新する。
ある仮定の下では、真のクラスについての信念は、ほぼ確実に一元的に収束することを示す。
論文 参考訳(メタデータ) (2024-09-30T04:59:51Z) - Achieving More with Less: A Tensor-Optimization-Powered Ensemble Method [53.170053108447455]
アンサンブル学習(英: Ensemble learning)は、弱い学習者を利用して強力な学習者を生み出す方法である。
我々は、マージンの概念を活かした滑らかで凸な目的関数を設計し、強力な学習者がより差別的になるようにした。
そして、我々のアルゴリズムを、多数のデータセットの10倍の大きさのランダムな森林や他の古典的な手法と比較する。
論文 参考訳(メタデータ) (2024-08-06T03:42:38Z) - Learnability Gaps of Strategic Classification [68.726857356532]
我々は,戦略的分類と標準学習の間にある学習可能性のギャップという,根本的な問題に対処することに注力する。
ほぼ厳密なサンプルの複雑さと後悔の限界を提供し、以前の結果よりも大幅に改善します。
この設定における我々のアルゴリズムは、独立して興味を持ち、マルチラベル学習のような他の問題にも適用できる。
論文 参考訳(メタデータ) (2024-02-29T16:09:19Z) - XAL: EXplainable Active Learning Makes Classifiers Better Low-resource Learners [71.8257151788923]
低リソーステキスト分類のための新しい説明可能なアクティブラーニングフレームワーク(XAL)を提案する。
XALは分類器に対して、推論を正当化し、合理的な説明ができないラベルのないデータを掘り下げることを推奨している。
6つのデータセットの実験では、XALは9つの強いベースラインに対して一貫した改善を達成している。
論文 参考訳(メタデータ) (2023-10-09T08:07:04Z) - Anomaly Detection using Ensemble Classification and Evidence Theory [62.997667081978825]
本稿では,アンサンブル分類とエビデンス理論を用いた新しい検出手法を提案する。
固体アンサンブル分類器を構築するためのプール選択戦略が提示される。
我々は異常検出手法の不確実性を利用する。
論文 参考訳(メタデータ) (2022-12-23T00:50:41Z) - Class-Incremental Learning with Generative Classifiers [6.570917734205559]
本稿では,クラス増分学習のための新しい戦略を提案する。
本提案は,p(x|y)p(y) として分解された合同分布 p(x,y) を学習し,ベイズ則を用いた分類を行うことである。
ここでは,各学習クラスに対して,変分オートエンコーダをトレーニングすることで,この戦略を実証する。
論文 参考訳(メタデータ) (2021-04-20T16:26:14Z) - Learning and Evaluating Representations for Deep One-class
Classification [59.095144932794646]
ディープワンクラス分類のための2段階フレームワークを提案する。
まず,一級データから自己教師付き表現を学習し,学習した表現に基づいて一級分類器を構築する。
実験では、視覚領域の1クラス分類ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2020-11-04T23:33:41Z) - Fast Few-Shot Classification by Few-Iteration Meta-Learning [173.32497326674775]
数ショット分類のための高速な最適化に基づくメタラーニング手法を提案する。
我々の戦略はメタ学習において学習すべき基礎学習者の目的の重要な側面を可能にする。
我々は、我々のアプローチの速度と効果を実証し、総合的な実験分析を行う。
論文 参考訳(メタデータ) (2020-10-01T15:59:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。