論文の概要: Collective dynamics of strategic classification
- arxiv url: http://arxiv.org/abs/2508.09340v1
- Date: Tue, 12 Aug 2025 20:57:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.69372
- Title: Collective dynamics of strategic classification
- Title(参考訳): 戦略分類の集合力学
- Authors: Marta C. Couto, Flavia Barsotti, Fernando P. Santos,
- Abstract要約: ユーザと機関の集団間のフィードバックループ問題に進化ゲーム理論を適用した。
検知能力の向上は社会的コストを低減し,ユーザの改善につながる可能性が示唆された。
施設が利用者の人口に再適応する速度は、最終結果に果たす役割を担っている。
- 参考スコア(独自算出の注目度): 49.14942990735098
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Classification algorithms based on Artificial Intelligence (AI) are nowadays applied in high-stakes decisions in finance, healthcare, criminal justice, or education. Individuals can strategically adapt to the information gathered about classifiers, which in turn may require algorithms to be re-trained. Which collective dynamics will result from users' adaptation and algorithms' retraining? We apply evolutionary game theory to address this question. Our framework provides a mathematically rigorous way of treating the problem of feedback loops between collectives of users and institutions, allowing to test interventions to mitigate the adverse effects of strategic adaptation. As a case study, we consider institutions deploying algorithms for credit lending. We consider several scenarios, each representing different interaction paradigms. When algorithms are not robust against strategic manipulation, we are able to capture previous challenges discussed in the strategic classification literature, whereby users either pay excessive costs to meet the institutions' expectations (leading to high social costs) or game the algorithm (e.g., provide fake information). From this baseline setting, we test the role of improving gaming detection and providing algorithmic recourse. We show that increased detection capabilities reduce social costs and could lead to users' improvement; when perfect classifiers are not feasible (likely to occur in practice), algorithmic recourse can steer the dynamics towards high users' improvement rates. The speed at which the institutions re-adapt to the user's population plays a role in the final outcome. Finally, we explore a scenario where strict institutions provide actionable recourse to their unsuccessful users and observe cycling dynamics so far unnoticed in the literature.
- Abstract(参考訳): 人工知能(AI)に基づく分類アルゴリズムは、金融、医療、刑事司法、教育における高度な意思決定に応用されている。
個人は分類器に関する収集された情報に戦略的に適応することができる。
ユーザの適応とアルゴリズムの再トレーニングによって、どのような集団的ダイナミクスが生まれるのか?
この問題に対処するために進化ゲーム理論を適用する。
本フレームワークは,ユーザと機関の集団間のフィードバックループの問題を数学的に厳格に処理し,戦略的適応の悪影響を軽減するための介入テストを可能にする。
ケーススタディとして、信用貸付のためのアルゴリズムをデプロイする機関について考察する。
いくつかのシナリオを考慮し、それぞれ異なる相互作用パラダイムを表現します。
アルゴリズムが戦略的操作に対して堅牢でない場合、我々は戦略分類文献で議論された過去の課題を捉えることができ、ユーザーは機関の期待に応えるために過大なコストを支払うか、アルゴリズムをゲームする(例えば、偽情報を提供する)。
このベースライン設定から,ゲーム検出を改善し,アルゴリズムによるリコースを提供する役割を検証した。
検出能力の増大は社会的コストを低減し,ユーザの改善につながることが示され,完全分類器が実現不可能な場合(実際はそうであるように),アルゴリズムによるリコースは,高いユーザの改善率に向けたダイナミクスを操ることができる。
施設が利用者の人口に再適応する速度は、最終結果に果たす役割を担っている。
最後に、厳格な機関がユーザに対して行動可能な会話を提供し、これまで文献に知られていなかったサイクリングのダイナミクスを観察するシナリオを探求する。
関連論文リスト
- Anticipating Gaming to Incentivize Improvement: Guiding Agents in (Fair) Strategic Classification [6.660458629649826]
アルゴリズムを騙そうとする個人の選択(「改善」)について検討する。
それらのインタラクションをStackelbergのゲームとして定式化し、そこで企業は(フェア)分類器をデプロイし、個人は戦略的に応答する。
論文 参考訳(メタデータ) (2025-05-08T18:47:23Z) - Learnability Gaps of Strategic Classification [68.726857356532]
我々は,戦略的分類と標準学習の間にある学習可能性のギャップという,根本的な問題に対処することに注力する。
ほぼ厳密なサンプルの複雑さと後悔の限界を提供し、以前の結果よりも大幅に改善します。
この設定における我々のアルゴリズムは、独立して興味を持ち、マルチラベル学習のような他の問題にも適用できる。
論文 参考訳(メタデータ) (2024-02-29T16:09:19Z) - Option-Aware Adversarial Inverse Reinforcement Learning for Robotic
Control [44.77500987121531]
階層的模倣学習 (Hierarchical Imitation Learning, HIL) は, 長期作業における複雑度の高い動作を, 専門家による実証から再現するために提案されている。
逆逆強化学習に基づく新しいHILアルゴリズムを開発した。
また,目的をエンド・ツー・エンドで学習するための変分オートエンコーダフレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-05T00:28:26Z) - Learning in Stackelberg Games with Non-myopic Agents [60.927889817803745]
そこで本研究では,主役が非筋力的な長寿命エージェントと繰り返し対話するスタックルバーグゲームについて,エージェントの支払関数を知らずに検討する。
我々は、非ミオピックエージェントの存在下での学習を、ミオピックエージェントの存在下で堅牢な帯域最適化に還元する一般的なフレームワークを提供する。
論文 参考訳(メタデータ) (2022-08-19T15:49:30Z) - Robust Reinforcement Learning via Genetic Curriculum [5.421464476555662]
遺伝的カリキュラムは、エージェントが現在失敗しているシナリオを自動的に識別し、関連するカリキュラムを生成するアルゴリズムである。
我々の実証研究は、既存の技術アルゴリズムよりも堅牢性の向上を示し、2倍から8倍のエージェントが失敗する確率の低いトレーニングカリキュラムを提供する。
論文 参考訳(メタデータ) (2022-02-17T01:14:20Z) - MURAL: Meta-Learning Uncertainty-Aware Rewards for Outcome-Driven
Reinforcement Learning [65.52675802289775]
本研究では,不確かさを意識した分類器が,強化学習の難しさを解消できることを示す。
正規化最大度(NML)分布の計算法を提案する。
得られたアルゴリズムは、カウントベースの探索法と、報酬関数を学習するための先行アルゴリズムの両方に多くの興味深い関係を持つことを示す。
論文 参考訳(メタデータ) (2021-07-15T08:19:57Z) - A black-box adversarial attack for poisoning clustering [78.19784577498031]
本稿では,クラスタリングアルゴリズムのロバスト性をテストするために,ブラックボックス対逆攻撃法を提案する。
我々の攻撃は、SVM、ランダムフォレスト、ニューラルネットワークなどの教師付きアルゴリズムに対しても転送可能であることを示す。
論文 参考訳(メタデータ) (2020-09-09T18:19:31Z) - Opportunities and Challenges in Deep Learning Adversarial Robustness: A
Survey [1.8782750537161614]
本稿では,機械学習アルゴリズムの安全性を保証するために,強靭に訓練されたアルゴリズムを実装するための戦略について検討する。
我々は、敵の攻撃と防衛を分類し、ロバスト最適化問題をmin-max設定で定式化し、それを3つのサブカテゴリに分類する。
論文 参考訳(メタデータ) (2020-07-01T21:00:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。