論文の概要: Algorithm as Experiment: Machine Learning, Market Design, and Policy
Eligibility Rules
- arxiv url: http://arxiv.org/abs/2104.12909v6
- Date: Wed, 6 Dec 2023 01:27:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-07 19:57:45.984875
- Title: Algorithm as Experiment: Machine Learning, Market Design, and Policy
Eligibility Rules
- Title(参考訳): 実験としてのアルゴリズム:機械学習、市場設計、政策適性ルール
- Authors: Yusuke Narita and Kohei Yata
- Abstract要約: そこで我々は, 分類および決定論的アルゴリズムのための楽器を用いた治療効果推定装置を開発した。
我々は,コロナウイルスエイド,リリーフ,経済保障法の評価に推定器を適用した。
この資金は、新型コロナウイルス関連の病院活動にはほとんど影響を与えないことが示されている。
- 参考スコア(独自算出の注目度): 10.134708060109404
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Algorithms make a growing portion of policy and business decisions. We
develop a treatment-effect estimator using algorithmic decisions as instruments
for a class of stochastic and deterministic algorithms. Our estimator is
consistent and asymptotically normal for well-defined causal effects. A special
case of our setup is multidimensional regression discontinuity designs with
complex boundaries. We apply our estimator to evaluate the Coronavirus Aid,
Relief, and Economic Security Act, which allocated many billions of dollars
worth of relief funding to hospitals via an algorithmic rule. The funding is
shown to have little effect on COVID-19-related hospital activities. Naive
estimates exhibit selection bias.
- Abstract(参考訳): アルゴリズムは、ポリシーやビジネス上の決定を増大させます。
アルゴリズム決定を確率的・決定論的アルゴリズムのクラスに応用した治療効果推定器を開発した。
我々の推定値は、よく定義された因果効果に対して一貫性があり漸近的に正常である。
セットアップの特別な例は、複雑な境界を持つ多次元回帰不連続性設計である。
我々は、新型コロナウイルスの援助・救済・経済保障法(covid-19 aid, relief, and economic security act)の評価に、当社の見積りを応用し、アルゴリズム的なルールで病院に数十億ドル相当の救済資金を割り当てた。
資金は新型コロナウイルス関連の病院活動にはほとんど影響がない。
ナイーブ推定は選択バイアスを示す。
関連論文リスト
- Likelihood Ratio Confidence Sets for Sequential Decision Making [51.66638486226482]
確率に基づく推論の原理を再検討し、確率比を用いて妥当な信頼シーケンスを構築することを提案する。
本手法は, 精度の高い問題に特に適している。
提案手法は,オンライン凸最適化への接続に光を当てることにより,推定器の最適シーケンスを確実に選択する方法を示す。
論文 参考訳(メタデータ) (2023-11-08T00:10:21Z) - Bayesian Safe Policy Learning with Chance Constrained Optimization: Application to Military Security Assessment during the Vietnam War [0.0]
ベトナム戦争で採用されたセキュリティアセスメントアルゴリズムを改善できるかどうかを検討する。
この経験的応用は、アルゴリズムによる意思決定においてしばしば発生するいくつかの方法論的課題を提起する。
論文 参考訳(メタデータ) (2023-07-17T20:59:50Z) - Planning Multiple Epidemic Interventions with Reinforcement Learning [7.51289645756884]
最適な計画は、寿命の最小限の損失、病気の重荷、経済的コストによる流行を抑制することである。
最適な計画を見つけることは、現実的な設定における難解な計算問題である。
我々は、最先端のアクター-批評家強化学習アルゴリズムを、全体的なコストを最小化する計画の探索に適用する。
論文 参考訳(メタデータ) (2023-01-30T11:51:24Z) - Nearly Optimal Latent State Decoding in Block MDPs [74.51224067640717]
エピソードブロック MDP では、意思決定者は少数の潜在状態から生成される豊富な観測やコンテキストにアクセスすることができる。
まず、固定動作ポリシーに基づいて生成されたデータに基づいて、潜時状態復号関数を推定することに興味がある。
次に、報酬のないフレームワークにおいて、最適に近いポリシーを学習する問題について研究する。
論文 参考訳(メタデータ) (2022-08-17T18:49:53Z) - Safe Online Bid Optimization with Return-On-Investment and Budget
Constraints subject to Uncertainty [87.81197574939355]
最適化問題と学習問題の両方について検討する。
我々は、潜在的に線形な数の制約違反を犠牲にして、サブ線形後悔を保証するアルゴリズム、すなわちGCBを提供する。
より興味深いことに、我々はGCB_safe(psi,phi)というアルゴリズムを提供し、サブ線形擬似回帰と安全性w.h.p.の両方を、耐性 psi と phi を受け入れるコストで保証する。
論文 参考訳(メタデータ) (2022-01-18T17:24:20Z) - A Reinforcement Learning Approach to the Stochastic Cutting Stock
Problem [0.0]
本稿では,削減された無限水平決定プロセスとして,カットストック問題の定式化を提案する。
最適解は、各状態と決定を関連付け、期待される総コストを最小化するポリシーに対応する。
論文 参考訳(メタデータ) (2021-09-20T14:47:54Z) - Bayesian decision-making under misspecified priors with applications to
meta-learning [64.38020203019013]
トンプソンサンプリングやその他のシーケンシャルな意思決定アルゴリズムは、文脈的包帯における探索と探索のトレードオフに取り組むための一般的なアプローチである。
性能は不特定な事前条件で優雅に低下することを示す。
論文 参考訳(メタデータ) (2021-07-03T23:17:26Z) - Pricing Algorithmic Insurance [3.705785916791345]
本稿では, アルゴリズム保険の概念を導入し, 導出保険契約の価格設定を実現するための定量的枠組みを提案する。
提案手法は, 精度, 解釈可能性, 一般化可能性などのモデルの性質が, 保険契約評価にどのように影響するかを概説する。
論文 参考訳(メタデータ) (2021-06-01T22:32:02Z) - Stochastic Intervention for Causal Effect Estimation [7.015556609676951]
介入効果を推定するための新しい確率スコアと介入効果推定器(SIE)を提案する。
また,介入効果(Ge-SIO)に特異的な遺伝的アルゴリズムを設計し,意思決定の因果的証拠を提供する。
提案手法とアルゴリズムは,最先端のベースラインと比較して,大幅な性能向上を実現することができる。
論文 参考訳(メタデータ) (2021-05-27T01:12:03Z) - Policy Gradient for Continuing Tasks in Non-stationary Markov Decision
Processes [112.38662246621969]
強化学習は、マルコフ決定プロセスにおいて期待される累積報酬を最大化するポリシーを見つけることの問題を考える。
我々は、ポリシーを更新するために上昇方向として使用する値関数の偏りのないナビゲーション勾配を計算する。
ポリシー勾配型アルゴリズムの大きな欠点は、定常性の仮定が課せられない限り、それらがエピソジックなタスクに限定されていることである。
論文 参考訳(メタデータ) (2020-10-16T15:15:42Z) - Large-Scale Methods for Distributionally Robust Optimization [53.98643772533416]
我々のアルゴリズムは、トレーニングセットのサイズとパラメータの数によらず、多くの評価勾配を必要とすることを証明している。
MNIST と ImageNet の実験により,本手法の 9-36 倍の効率性を持つアルゴリズムの理論的スケーリングが確認された。
論文 参考訳(メタデータ) (2020-10-12T17:41:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。