論文の概要: Budgeting Discretion: Theory and Evidence on Street-Level Decision-Making
- arxiv url: http://arxiv.org/abs/2602.10039v1
- Date: Tue, 10 Feb 2026 18:02:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.729054
- Title: Budgeting Discretion: Theory and Evidence on Street-Level Decision-Making
- Title(参考訳): 予算決定:ストリートレベル意思決定の理論とエビデンス
- Authors: Gaurab Pokharel, Sanmay Das, Patrick J. Fowler,
- Abstract要約: そこで本研究では,実運用制約下での意思決定の時間的制限について,基本的モデルを提案する。
我々は、オーバライドがダイナミックなしきい値ルールに従うことを示し、機会が時間と予算に依存したカットオフを超えた場合にのみ、裁量を使用する。
これらの結果から,判断は手続き的制約と福祉的改善の両面において,明確に予算化された資源として扱われることが示唆された。
- 参考スコア(独自算出の注目度): 10.816276884713611
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Street-level bureaucrats, such as caseworkers and border guards routinely face the dilemma of whether to follow rigid policy or exercise discretion based on professional judgement. However, frequent overrides threaten consistency and introduce bias, explaining why bureaucracies often ration discretion as a finite resource. While prior work models discretion as a static cost-benefit tradeoff, we lack a principled model of how discretion should be rationed over time under real operational constraints. We formalize discretion as a dynamic allocation problem in which an agent receives stochastic opportunities to improve upon a default policy and must spend a limited override budget K over a finite horizon T. We show that overrides follow a dynamic threshold rule: use discretion only when the opportunity exceeds a time and budget-dependent cutoff. Our main theoretical contribution identifies a behavioral invariance: for location-scale families of improvement distributions, the rate at which an optimal agent exercises discretion is independent of the scale of potential gains and depends only on the distribution's shape (e.g., tail heaviness). This result implies systematic differences in discretionary "policy personality." When gains are fat-tailed, optimal agents are patient, conserving discretion for outliers. When gains are thin-tailed, agents spend more routinely. We illustrate these implications using data from a homelessness services system. Discretionary overrides track operational constraints: they are higher at the start of the workweek, suppressed on weekends when intake is offline, and shift with short-run housing capacity. These results suggest that discretion can be both procedurally constrained and welfare-improving when treated as an explicitly budgeted resource, providing a foundation for auditing override patterns and designing decision-support systems.
- Abstract(参考訳): ケースワーカーや国境警備隊といったストリートレベルの官僚は、厳格な政策に従うか、専門的な判断に基づいて判断を下すかというジレンマに直面している。
しかし、頻繁なオーバーライドは一貫性を脅かしバイアスを導入し、なぜ官僚が有限資源として判断を下すのかを説明する。
事前の作業モデルは静的なコスト対利益のトレードオフとして判断されるが、実際の運用上の制約の下で、時間とともに判断がどのように制限されるかという、原則的なモデルが欠如している。
我々は、決定を、エージェントがデフォルトのポリシーを改善する確率的機会を受け取り、有限の地平線T上で限られたオーバーライド予算Kを使わなければならない動的割当問題として定式化する。
最適エージェントが判断を行う速度は、潜在的な利得のスケールとは独立しており、分布の形状(例えば、尾の重み)にのみ依存する。
この結果は、差別的な「政治人格」の体系的な違いを意味する。
利得が太った場合、最適剤は患者であり、降圧剤の裁量を保持する。
利得が細くなると、エージェントはより日常的に費やされる。
ホームレスサービスシステムからのデータを用いて,これらの意味を説明する。
選別的なオーバーライドは、作業ウィークの開始時により高く、インテークがオフラインになった週末に抑制され、短期的な住宅容量にシフトする、運用上の制約をトラックする。
これらの結果から,判断は手続き的に制約され,明確に予算化された資源として扱われる場合の福祉改善と,オーバーライドパターンを監査し,意思決定支援システムを設計するための基盤となる可能性が示唆された。
関連論文リスト
- Deontically Constrained Policy Improvement in Reinforcement Learning Agents [0.0]
マルコフ決定プロセス(MDP)は、機械学習コミュニティにおいて不確実性の下で意思決定を行うための最も一般的なモデルである。
MDPは非決定性、確率的不確実性、および明示的な行動モデルを取得する。
強化学習(RL)エージェントは、実用機能を最大化することにより、MDPで行動することを学ぶ。
論文 参考訳(メタデータ) (2025-06-08T01:01:06Z) - The Pitfalls of Imitation Learning when Actions are Continuous [33.44344966171865]
本研究では,連続的な状態・動作制御システムにおいて,専門家のデモレータを模倣する問題について検討する。
指数的安定性と呼ばれる制御理論的性質を満たす力学であっても、任意の滑らかな決定論的模倣ポリシーは必ず誤りを被ることを示す。
論文 参考訳(メタデータ) (2025-03-12T18:11:37Z) - Criticality and Safety Margins for Reinforcement Learning [53.10194953873209]
我々は,定量化基盤真理とユーザにとっての明確な意義の両面から,批判的枠組みを定めようとしている。
エージェントがn連続的ランダム動作に対するポリシーから逸脱した場合の報酬の減少として真臨界を導入する。
我々はまた、真の臨界と統計的に単調な関係を持つ低オーバーヘッド計量であるプロキシ臨界の概念も導入する。
論文 参考訳(メタデータ) (2024-09-26T21:00:45Z) - Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Discretionary Trees: Understanding Street-Level Bureaucracy via Machine
Learning [11.74020933567308]
我々は、街頭官僚の行動を理解するために機械学習技術を用いる。
単純な決定規則に従わない決定は、ケースワーナーの判断の応用と見なすことができると我々は論じる。
論文 参考訳(メタデータ) (2023-12-17T12:08:09Z) - Anytime-valid off-policy inference for contextual bandits [34.721189269616175]
コンテキストバンディットアルゴリズムは、観測されたコンテキストを$X_t$からアクションにマッピングする。
データの収集に使われたロギングポリシーと異なる仮説的ポリシーの特性を推定することは、しばしば関心がある。
我々は、過去の作業で不要な条件を緩和するOPE推論のための包括的なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-19T17:57:53Z) - Fair Incentives for Repeated Engagement [0.46040036610482665]
我々は、参加決定が受け取ったインセンティブに依存するエージェントに直面する場合、維持のための最適な金融インセンティブスキームを見つけるという課題について検討する。
明示的な差別がなくても、システムの種類構成を変化させることで、ポリシーが無意識に異なるタイプのエージェントを識別できることが示される。
論文 参考訳(メタデータ) (2021-10-28T04:13:53Z) - Robust Allocations with Diversity Constraints [65.3799850959513]
エージェント値の積を最大化するナッシュ福祉規則は,多様性の制約が導入されたとき,一意にロバストな位置にあることを示す。
また, ナッシュ・ウェルズによる保証は, 広く研究されているアロケーション・ルールのクラスにおいて, ほぼ最適であることを示す。
論文 参考訳(メタデータ) (2021-09-30T11:09:31Z) - Where is the Grass Greener? Revisiting Generalized Policy Iteration for
Offline Reinforcement Learning [81.15016852963676]
オフラインRL体制における最先端のベースラインを、公正で統一的で高分解能なフレームワークの下で再実装する。
与えられたベースラインが、スペクトルの一方の端で競合する相手よりも優れている場合、他方の端では決してしないことを示す。
論文 参考訳(メタデータ) (2021-07-03T11:00:56Z) - Efficient Empowerment Estimation for Unsupervised Stabilization [75.32013242448151]
エンパワーメント原理は 直立位置での 力学系の教師なし安定化を可能にする
本稿では,ガウスチャネルとして動的システムのトレーニング可能な表現に基づく代替解を提案する。
提案手法は, サンプルの複雑さが低く, 訓練時より安定であり, エンパワーメント機能の本質的特性を有し, 画像からエンパワーメントを推定できることを示す。
論文 参考訳(メタデータ) (2020-07-14T21:10:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。