論文の概要: Maximizing Welfare with Incentive-Aware Evaluation Mechanisms
- arxiv url: http://arxiv.org/abs/2011.01956v1
- Date: Tue, 3 Nov 2020 19:00:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 05:46:13.335848
- Title: Maximizing Welfare with Incentive-Aware Evaluation Mechanisms
- Title(参考訳): インセンティブアウェア評価機構による福祉の最大化
- Authors: Nika Haghtalab, Nicole Immorlica, Brendan Lucier, Jack Z. Wang
- Abstract要約: 本稿では,その特徴をコストで修正できる戦略的個人によって,入力が制御される評価問題を提案する。
学習者は特徴を部分的に観察することしかできず、品質スコアに関して個人を分類することを目的としている。
- 参考スコア(独自算出の注目度): 18.304048425012503
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motivated by applications such as college admission and insurance rate
determination, we propose an evaluation problem where the inputs are controlled
by strategic individuals who can modify their features at a cost. A learner can
only partially observe the features, and aims to classify individuals with
respect to a quality score. The goal is to design an evaluation mechanism that
maximizes the overall quality score, i.e., welfare, in the population, taking
any strategic updating into account. We further study the algorithmic aspect of
finding the welfare maximizing evaluation mechanism under two specific settings
in our model. When scores are linear and mechanisms use linear scoring rules on
the observable features, we show that the optimal evaluation mechanism is an
appropriate projection of the quality score. When mechanisms must use linear
thresholds, we design a polynomial time algorithm with a (1/4)-approximation
guarantee when the underlying feature distribution is sufficiently smooth and
admits an oracle for finding dense regions. We extend our results to settings
where the prior distribution is unknown and must be learned from samples.
- Abstract(参考訳): 大学進学や保険率決定などの応用に動機づけられ,入力を,その特徴を低コストで修正可能な戦略的個人によって制御される評価問題を提案する。
学習者は特徴を部分的にのみ観察することができ、品質スコアに関して個人を分類することを目的としている。
目標は、集団における全体的な品質スコア、すなわち福祉を最大化し、戦略的更新を考慮に入れた評価メカニズムを設計することである。
さらに,本モデルにおける2つの具体的条件下での福祉最大化評価機構のアルゴリズム的側面について検討した。
スコアが線形であり,観測可能な特徴に対する線形スコアリングルールを用いる機構では,最適評価機構が品質スコアの適切な投影であることを示す。
機構が線形しきい値を使用する必要があるとき、基礎となる特徴分布が十分に滑らかであるときに(1/4)近似保証を持つ多項式時間アルゴリズムを設計し、密度の高い領域を見つけるための神託を認める。
結果は、以前の分布が不明で、サンプルから学ぶ必要がある設定にまで拡張します。
関連論文リスト
- A Probabilistic Perspective on Unlearning and Alignment for Large Language Models [48.96686419141881]
大規模言語モデル(LLM)における最初の形式的確率的評価フレームワークを紹介する。
モデルの出力分布に関する高い確率保証を持つ新しい指標を導出する。
私たちのメトリクスはアプリケーションに依存しないので、デプロイ前にモデル機能についてより信頼性の高い見積を行うことができます。
論文 参考訳(メタデータ) (2024-10-04T15:44:23Z) - Automatic Generation of Attention Rules For Containment of Machine
Learning Model Errors [1.4987559345379062]
我々は、観測を分離するために最適な規則を決定するためのいくつかのアルゴリズム(ストラテジー')を提案する。
特に,機能ベースのスライシングを利用する戦略は,人間の解釈可能で,モデル非依存であり,補足的な入力や知識を最小限に抑える必要がある。
戦略を評価するために、我々は、その性能、安定性、そして、目に見えないデータに対する一般化可能性など、様々な望ましい品質を測定するための指標を導入する。
論文 参考訳(メタデータ) (2023-05-14T10:15:35Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Sequential Attention for Feature Selection [12.89764845700709]
本稿では,ニューラルネットワークの最先端な実験結果を実現するSequential Attentionと呼ばれる特徴選択アルゴリズムを提案する。
この設定への適応が古典的直交整合探索(OMP)アルゴリズムと等価であることを示すことによって、線形回帰のためのアルゴリズムの理論的な洞察を与える。
論文 参考訳(メタデータ) (2022-09-29T15:49:06Z) - Budgeted Classification with Rejection: An Evolutionary Method with
Multiple Objectives [0.0]
予算付きシーケンシャル分類器(BSC)プロセスは、部分的特徴取得と評価ステップのシーケンスを通じて入力を行う。
これにより、不要な特徴取得を防止するための入力の効率的な評価が可能になる。
本稿では,信頼度に基づく拒否オプション付き逐次分類器を構築するための問題固有遺伝的アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-01T22:05:16Z) - Domain-Adjusted Regression or: ERM May Already Learn Features Sufficient
for Out-of-Distribution Generalization [52.7137956951533]
既存の特徴から予測器を学習するためのよりシンプルな手法を考案することは、将来の研究にとって有望な方向である、と我々は主張する。
本稿では,線形予測器を学習するための凸目標である領域調整回帰(DARE)を紹介する。
自然モデルの下では、DARE解が制限されたテスト分布の集合に対する最小最適予測器であることを証明する。
論文 参考訳(メタデータ) (2022-02-14T16:42:16Z) - Towards a Fairness-Aware Scoring System for Algorithmic Decision-Making [35.21763166288736]
本稿では,データ駆動型フェアネス対応スコアリングシステムを構築するための一般的なフレームワークを提案する。
提案するフレームワークは,実践者や政策立案者に対して,希望する公正性要件を選択するための柔軟性を提供する。
論文 参考訳(メタデータ) (2021-09-21T09:46:35Z) - Towards Explainable Exploratory Landscape Analysis: Extreme Feature
Selection for Classifying BBOB Functions [4.932130498861987]
驚くほど少数の機能(多くの場合4つ未満)が、98%の精度を達成するのに十分であることを示している。
分類精度は、いくつかのインスタンスがトレーニングやテストに関わっている設定に変換されることを示す。
論文 参考訳(メタデータ) (2021-02-01T10:04:28Z) - Online Learning Demands in Max-min Fairness [91.37280766977923]
本稿では,複数のユーザ間の希少リソースの割り当て機構について,効率的で公平で戦略に準拠した方法で記述する。
このメカニズムは複数のラウンドで繰り返され、各ラウンドでユーザの要求が変更される可能性がある。
各ラウンドの最後には、ユーザは受け取ったアロケーションに関するフィードバックを提供し、そのメカニズムが時間の経過とともにユーザの好みを学習することを可能にする。
論文 参考訳(メタデータ) (2020-12-15T22:15:20Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z) - VCG Mechanism Design with Unknown Agent Values under Stochastic Bandit
Feedback [104.06766271716774]
本研究では,エージェントが自己の価値を知らない場合に,マルチラウンドの福祉最大化機構設計問題について検討する。
まず、福祉に対する後悔の3つの概念、各エージェントの個々のユーティリティ、メカニズムの3つの概念を定義します。
当社のフレームワークは価格体系を柔軟に制御し、エージェントと販売者の後悔のトレードオフを可能にする。
論文 参考訳(メタデータ) (2020-04-19T18:00:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。