論文の概要: On classification of strategic agents who can both game and improve
- arxiv url: http://arxiv.org/abs/2203.00124v1
- Date: Mon, 28 Feb 2022 22:38:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-02 15:44:51.716217
- Title: On classification of strategic agents who can both game and improve
- Title(参考訳): ゲームと改善を両立できる戦略エージェントの分類について
- Authors: Saba Ahmadi, Hedyeh Beyhaghi, Avrim Blum, Keziah Naggita
- Abstract要約: ゲームと改善の両方が可能なエージェントの分類を検討する。
意思決定者は、偽陽性がほとんどない分類規則を定義したいが、多くの真陽性が得られる。
- 参考スコア(独自算出の注目度): 11.078814063722803
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we consider classification of agents who can both game and
improve. For example, people wishing to get a loan may be able to take some
actions that increase their perceived credit-worthiness and others that also
increase their true credit-worthiness. A decision-maker would like to define a
classification rule with few false-positives (does not give out many bad loans)
while yielding many true positives (giving out many good loans), which includes
encouraging agents to improve to become true positives if possible. We consider
two models for this problem, a general discrete model and a linear model, and
prove algorithmic, learning, and hardness results for each. For the general
discrete model, we give an efficient algorithm for the problem of maximizing
the number of true positives subject to no false positives, and show how to
extend this to a partial-information learning setting. We also show hardness
for the problem of maximizing the number of true positives subject to a nonzero
bound on the number of false positives, and that this hardness holds even for a
finite-point version of our linear model. We also show that maximizing the
number of true positives subject to no false positive is NP-hard in our full
linear model. We additionally provide an algorithm that determines whether
there exists a linear classifier that classifies all agents accurately and
causes all improvable agents to become qualified, and give additional results
for low-dimensional data.
- Abstract(参考訳): 本研究では,ゲームと改善を両立できるエージェントの分類について検討する。
例えば、ローンを希望する人は、信用価値が高まるような行動や、信用価値が高まる行動を取ることができるかもしれない。
意思決定者は、少ない偽陽性(悪いローンを多く与えない)で分類ルールを定義し、多くの真陽性(良いローンを多く与える)を産み出し、可能であれば真陽性になるようエージェントを奨励する。
この問題に対して, 一般離散モデルと線形モデルという2つのモデルを検討し, それぞれのアルゴリズム, 学習, 硬さを証明した。
一般的な離散モデルでは、偽陽性のない真の正の数を最大化する問題に対する効率的なアルゴリズムを与え、これを部分情報学習環境に拡張する方法を示す。
また、真正の数を偽正の数に非零のバウンドに最大化する問題に対する硬さを示し、この硬さは我々の線形モデルの有限点バージョンでも成り立つことを示した。
また、完全線形モデルでは、偽陽性のない真正数の最大化はNPハードであることが示される。
さらに,すべてのエージェントを的確に分類し,すべての即興エージェントを適格化させる線形分類器が存在するかどうかを判定するアルゴリズムを提供し,低次元データに対して追加結果を与える。
関連論文リスト
- Examining False Positives under Inference Scaling for Mathematical Reasoning [59.19191774050967]
本稿では,言語モデルにおける数学的問題解決における偽陽性解の有効性を体系的に検討する。
擬陽性が言語モデルの推論時間スケーリング行動にどのように影響するかを考察する。
論文 参考訳(メタデータ) (2025-02-10T07:49:35Z) - How many classifiers do we need? [50.69951049206484]
分類器間の不一致と偏極が、個々の分類器を集約することで得られる性能向上とどのように関連しているかを詳細に分析する。
分類器の個数で不一致の挙動を示す。
我々の理論と主張は、様々なタイプのニューラルネットワークを用いた画像分類タスクに関する経験的な結果によって裏付けられている。
論文 参考訳(メタデータ) (2024-11-01T02:59:56Z) - Preference Fine-Tuning of LLMs Should Leverage Suboptimal, On-Policy Data [102.16105233826917]
好みラベルからの学習は、微調整された大きな言語モデルにおいて重要な役割を果たす。
好みの微調整には、教師付き学習、オンライン強化学習(RL)、コントラスト学習など、いくつかの異なるアプローチがある。
論文 参考訳(メタデータ) (2024-04-22T17:20:18Z) - Mitigating Nonlinear Algorithmic Bias in Binary Classification [0.0]
本稿では,保護属性の非線形なバイアスの検出と緩和に因果モデリングを用いることを提案する。
若年者では「低リスク」と正しく分類される可能性が低いことを示す。
適応因果モデルに基づいて、偏り確率推定を計算し、全体の精度にほとんど影響を与えずに、公正性の向上を示す。
論文 参考訳(メタデータ) (2023-12-09T01:26:22Z) - Fundamental Bounds on Online Strategic Classification [13.442155854812528]
戦略設定において,決定論的アルゴリズムが$o(Delta)$の誤りを達成できないことを示す。
また、これを非依存の設定に拡張し、$Delta$乗法後悔のアルゴリズムを得る。
我々は,不愉快な,適応的な両敵に対して,サブ線形後悔境界を実現するランダム化アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-02-23T22:39:43Z) - Emphasis on the Minimization of False Negatives or False Positives in
Binary Classification [0.0]
モデル全体の性能やF1スコアを大幅に変更することなく、偽陰性や偽陽性を低減させる新しい手法が導入された。
この方法は、モデルを事前訓練した後、入力の実際の値に慎重に変更することを含む。
すべてのモデルにおいて、F1スコアの大幅な低下なく、リコールまたは精度の向上、偽陰性または偽陽性の最小化が示された。
論文 参考訳(メタデータ) (2022-04-06T00:33:40Z) - Stay Positive: Knowledge Graph Embedding Without Negative Sampling [1.8275108630751844]
損失関数に新たな正規化項を追加することにより、ネガティブサンプリングの必要性を回避できる訓練手順を提案する。
我々の2つの関係埋め込みモデル(DistMultとSimplE)の結果は、性能と速度の両面で提案の利点を示している。
論文 参考訳(メタデータ) (2022-01-07T20:09:27Z) - An Exponential Lower Bound for Linearly-Realizable MDPs with Constant
Suboptimality Gap [66.75488143823337]
また, 指数的標本複雑度は, 一定の準最適ギャップを仮定しても, 未だに保持していることを示した。
おそらく驚くことに、これはオンラインrl設定と生成モデル設定の指数関数的な分離を意味する。
論文 参考訳(メタデータ) (2021-03-23T17:05:54Z) - Pareto Optimal Model Selection in Linear Bandits [15.85873315624132]
本研究では,学習者が最適仮説クラスの次元に適応しなければならない線形帯域設定におけるモデル選択問題について検討する。
本稿では,まず,固定アクション集合であっても,未知の内在次元$d_star$ への適応がコスト的に現れることを示す下限を定式化する。
論文 参考訳(メタデータ) (2021-02-12T16:02:06Z) - Non-parametric Models for Non-negative Functions [48.7576911714538]
同じ良い線形モデルから非負関数に対する最初のモデルを提供する。
我々は、それが表現定理を認め、凸問題に対する効率的な二重定式化を提供することを証明した。
論文 参考訳(メタデータ) (2020-07-08T07:17:28Z) - On Positive-Unlabeled Classification in GAN [130.43248168149432]
本稿では,標準GANに対する肯定的かつ未ラベルの分類問題を定義する。
その後、GANにおける差別者の訓練を安定させる新しい手法が導かれる。
論文 参考訳(メタデータ) (2020-02-04T05:59:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。