論文の概要: Maximizing Welfare with Incentive-Aware Evaluation Mechanisms
- arxiv url: http://arxiv.org/abs/2011.01956v1
- Date: Tue, 3 Nov 2020 19:00:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 05:46:13.335848
- Title: Maximizing Welfare with Incentive-Aware Evaluation Mechanisms
- Title(参考訳): インセンティブアウェア評価機構による福祉の最大化
- Authors: Nika Haghtalab, Nicole Immorlica, Brendan Lucier, Jack Z. Wang
- Abstract要約: 本稿では,その特徴をコストで修正できる戦略的個人によって,入力が制御される評価問題を提案する。
学習者は特徴を部分的に観察することしかできず、品質スコアに関して個人を分類することを目的としている。
- 参考スコア(独自算出の注目度): 18.304048425012503
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motivated by applications such as college admission and insurance rate
determination, we propose an evaluation problem where the inputs are controlled
by strategic individuals who can modify their features at a cost. A learner can
only partially observe the features, and aims to classify individuals with
respect to a quality score. The goal is to design an evaluation mechanism that
maximizes the overall quality score, i.e., welfare, in the population, taking
any strategic updating into account. We further study the algorithmic aspect of
finding the welfare maximizing evaluation mechanism under two specific settings
in our model. When scores are linear and mechanisms use linear scoring rules on
the observable features, we show that the optimal evaluation mechanism is an
appropriate projection of the quality score. When mechanisms must use linear
thresholds, we design a polynomial time algorithm with a (1/4)-approximation
guarantee when the underlying feature distribution is sufficiently smooth and
admits an oracle for finding dense regions. We extend our results to settings
where the prior distribution is unknown and must be learned from samples.
- Abstract(参考訳): 大学進学や保険率決定などの応用に動機づけられ,入力を,その特徴を低コストで修正可能な戦略的個人によって制御される評価問題を提案する。
学習者は特徴を部分的にのみ観察することができ、品質スコアに関して個人を分類することを目的としている。
目標は、集団における全体的な品質スコア、すなわち福祉を最大化し、戦略的更新を考慮に入れた評価メカニズムを設計することである。
さらに,本モデルにおける2つの具体的条件下での福祉最大化評価機構のアルゴリズム的側面について検討した。
スコアが線形であり,観測可能な特徴に対する線形スコアリングルールを用いる機構では,最適評価機構が品質スコアの適切な投影であることを示す。
機構が線形しきい値を使用する必要があるとき、基礎となる特徴分布が十分に滑らかであるときに(1/4)近似保証を持つ多項式時間アルゴリズムを設計し、密度の高い領域を見つけるための神託を認める。
結果は、以前の分布が不明で、サンプルから学ぶ必要がある設定にまで拡張します。
関連論文リスト
- Iterative Feature Space Optimization through Incremental Adaptive Evaluation [30.404285897464256]
反復的特徴空間最適化は、下流タスクのパフォーマンスを改善するために、機能空間を体系的に評価し、調整する。
現存する作品には3つの限界がある。
データサンプルの違いを見渡すと 評価バイアスが発生します
特定の機械学習モデルに特徴空間を合わせると、過度に適合し、一般化が不十分になる。
本稿では, 最適かつ一般化された特徴空間を効率よく生成する, gEneralized Adaptive Feature Space Evaluatorを提案する。
論文 参考訳(メタデータ) (2025-01-24T19:24:20Z) - A Hybrid Framework for Statistical Feature Selection and Image-Based Noise-Defect Detection [55.2480439325792]
本稿では,統計的特徴選択と分類技術を統合し,欠陥検出精度を向上させるハイブリッドフレームワークを提案する。
工業画像から抽出した55個の特徴を統計的手法を用いて解析した。
これらの手法をフレキシブルな機械学習アプリケーションに統合することにより、検出精度を改善し、偽陽性や誤分類を減らす。
論文 参考訳(メタデータ) (2024-12-11T22:12:21Z) - Self-Improvement in Language Models: The Sharpening Mechanism [70.9248553790022]
我々は、レンズを通して自己改善の能力について、新たな視点を提供する。
言語モデルは、正しい応答を生成する場合よりも、応答品質の検証が優れているという観察に感銘を受けて、後学習において、モデル自体を検証対象として、自己改善を形式化する。
SFTとRLHFに基づく自己改善アルゴリズムの2つの自然ファミリーを解析する。
論文 参考訳(メタデータ) (2024-12-02T20:24:17Z) - A Probabilistic Perspective on Unlearning and Alignment for Large Language Models [48.96686419141881]
大規模言語モデル(LLM)のための最初の形式的確率的評価フレームワークを紹介する。
すなわち,モデルの出力分布に関する確率保証の高い新しい指標を提案する。
私たちのメトリクスはアプリケーションに依存しないので、デプロイ前にモデル機能についてより信頼性の高い見積を行うことができます。
論文 参考訳(メタデータ) (2024-10-04T15:44:23Z) - Automatic Generation of Attention Rules For Containment of Machine
Learning Model Errors [1.4987559345379062]
我々は、観測を分離するために最適な規則を決定するためのいくつかのアルゴリズム(ストラテジー')を提案する。
特に,機能ベースのスライシングを利用する戦略は,人間の解釈可能で,モデル非依存であり,補足的な入力や知識を最小限に抑える必要がある。
戦略を評価するために、我々は、その性能、安定性、そして、目に見えないデータに対する一般化可能性など、様々な望ましい品質を測定するための指標を導入する。
論文 参考訳(メタデータ) (2023-05-14T10:15:35Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Sequential Attention for Feature Selection [12.89764845700709]
本稿では,ニューラルネットワークの最先端な実験結果を実現するSequential Attentionと呼ばれる特徴選択アルゴリズムを提案する。
この設定への適応が古典的直交整合探索(OMP)アルゴリズムと等価であることを示すことによって、線形回帰のためのアルゴリズムの理論的な洞察を与える。
論文 参考訳(メタデータ) (2022-09-29T15:49:06Z) - Domain-Adjusted Regression or: ERM May Already Learn Features Sufficient
for Out-of-Distribution Generalization [52.7137956951533]
既存の特徴から予測器を学習するためのよりシンプルな手法を考案することは、将来の研究にとって有望な方向である、と我々は主張する。
本稿では,線形予測器を学習するための凸目標である領域調整回帰(DARE)を紹介する。
自然モデルの下では、DARE解が制限されたテスト分布の集合に対する最小最適予測器であることを証明する。
論文 参考訳(メタデータ) (2022-02-14T16:42:16Z) - Towards a Fairness-Aware Scoring System for Algorithmic Decision-Making [35.21763166288736]
本稿では,データ駆動型フェアネス対応スコアリングシステムを構築するための一般的なフレームワークを提案する。
提案するフレームワークは,実践者や政策立案者に対して,希望する公正性要件を選択するための柔軟性を提供する。
論文 参考訳(メタデータ) (2021-09-21T09:46:35Z) - Towards Explainable Exploratory Landscape Analysis: Extreme Feature
Selection for Classifying BBOB Functions [4.932130498861987]
驚くほど少数の機能(多くの場合4つ未満)が、98%の精度を達成するのに十分であることを示している。
分類精度は、いくつかのインスタンスがトレーニングやテストに関わっている設定に変換されることを示す。
論文 参考訳(メタデータ) (2021-02-01T10:04:28Z) - VCG Mechanism Design with Unknown Agent Values under Stochastic Bandit
Feedback [104.06766271716774]
本研究では,エージェントが自己の価値を知らない場合に,マルチラウンドの福祉最大化機構設計問題について検討する。
まず、福祉に対する後悔の3つの概念、各エージェントの個々のユーティリティ、メカニズムの3つの概念を定義します。
当社のフレームワークは価格体系を柔軟に制御し、エージェントと販売者の後悔のトレードオフを可能にする。
論文 参考訳(メタデータ) (2020-04-19T18:00:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。