論文の概要: Bridging the Gap: Towards an Expanded Toolkit for ML-Supported Decision-Making in the Public Sector
- arxiv url: http://arxiv.org/abs/2310.19091v2
- Date: Fri, 26 Apr 2024 08:38:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-29 17:58:08.543103
- Title: Bridging the Gap: Towards an Expanded Toolkit for ML-Supported Decision-Making in the Public Sector
- Title(参考訳): ギャップを埋める: 公共セクターにおけるML対応意思決定のための拡張ツールキットを目指して
- Authors: Unai Fischer-Abaigar, Christoph Kern, Noam Barda, Frauke Kreuter,
- Abstract要約: 我々は,MLモデルの要件と公共セクターの意思決定のギャップを埋めることを目的として,主要な技術的課題の包括的概要を提示する。
我々は、モデルと運用環境を接続するMLパイプラインの要点に集中する。
これらの課題は、因果ML、ドメイン適応、不確実性定量化、多目的最適化を含む、新たな方法論の進歩と結びついている。
- 参考スコア(独自算出の注目度): 6.693502127460251
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine Learning (ML) systems are becoming instrumental in the public sector, with applications spanning areas like criminal justice, social welfare, financial fraud detection, and public health. While these systems offer great potential benefits to institutional decision-making processes, such as improved efficiency and reliability, they still face the challenge of aligning nuanced policy objectives with the precise formalization requirements necessitated by ML models. In this paper, we aim to bridge the gap between ML model requirements and public sector decision-making by presenting a comprehensive overview of key technical challenges where disjunctions between policy goals and ML models commonly arise. We concentrate on pivotal points of the ML pipeline that connect the model to its operational environment, discussing the significance of representative training data and highlighting the importance of a model setup that facilitates effective decision-making. Additionally, we link these challenges with emerging methodological advancements, encompassing causal ML, domain adaptation, uncertainty quantification, and multi-objective optimization, illustrating the path forward for harmonizing ML and public sector objectives.
- Abstract(参考訳): 機械学習(ML)システムは、刑事司法、社会福祉、金融詐欺検出、公衆衛生などの分野にまたがる、公共セクターにおいて重要な存在になりつつある。
これらのシステムは、効率改善や信頼性向上など、制度的な意思決定プロセスに大きなメリットをもたらすが、MLモデルで必要とされる厳密な形式化要件と、曖昧な政策目標を整合させるという課題に直面している。
本稿では,政策目標とMLモデルの相違が一般的である重要な技術的課題の包括的概要を提示することにより,MLモデル要件と公共セクター意思決定のギャップを埋めることを目的とする。
我々は、モデルと運用環境を接続するMLパイプラインの要点に集中し、代表的トレーニングデータの重要性について議論し、効果的な意思決定を容易にするモデルセットアップの重要性を強調します。
さらに、これらの課題を、因果ML、ドメイン適応、不確実性定量化、多目的最適化を含む、新たな方法論の進歩と結びつけ、MLと公共セクターの目的を調和させるための道筋を示す。
関連論文リスト
- Towards Objective and Unbiased Decision Assessments with LLM-Enhanced Hierarchical Attention Networks [6.520709313101523]
本研究では,人的専門家による高い意思決定過程における認知バイアスの識別について検討する。
人間の判断を超越したバイアス対応AI拡張ワークフローを提案する。
実験では,提案モデルとエージェントワークフローの両方が,人間の判断と代替モデルの両方において有意に改善されている。
論文 参考訳(メタデータ) (2024-11-13T10:42:11Z) - Distilling Analysis from Generative Models for Investment Decisions [21.079716095758158]
専門家の意思決定過程をシミュレートする新しいデータセットA3を導入する。
現在のモデルでは,プロフェッショナルの行動を予測する上での課題が指摘されているが,提案したChain-of-Decisionアプローチは,有望な改善を示すものだ。
意見生成システムを統合し,各ニュース項目に基づいて主観的分析を行い,提案課題の性能をさらに向上させる。
論文 参考訳(メタデータ) (2024-10-02T01:39:42Z) - A Decision-driven Methodology for Designing Uncertainty-aware AI Self-Assessment [8.482630532500057]
特定のAIシステムの予測が下流アプリケーションで意思決定者によって信頼できるかどうかは不明だ。
この原稿は、機械学習エンジニアとAIシステムユーザーが理想的な自己評価テクニックを選択するための実践的なガイドである。
論文 参考訳(メタデータ) (2024-08-02T14:43:45Z) - ABI Approach: Automatic Bias Identification in Decision-Making Under Risk based in an Ontology of Behavioral Economics [46.57327530703435]
損失回避のようなバイアスによって引き起こされる損失に対する優先順位を求めるリスクは、課題を引き起こし、深刻なネガティブな結果をもたらす可能性がある。
本研究は,リスクサーチの選好を自動的に識別し,説明することにより,組織意思決定者を支援する新しいソリューションであるABIアプローチを紹介する。
論文 参考訳(メタデータ) (2024-05-22T23:53:46Z) - Rational Decision-Making Agent with Internalized Utility Judgment [91.80700126895927]
大規模言語モデル(LLM)は目覚ましい進歩を示し、従来のNLPアプリケーションを超えて複雑な多段階決定タスクを実行できるエージェントにLLMを開発するための重要な努力を惹きつけている。
本稿では,RadAgentを提案する。このRadAgentは,経験探索とユーティリティ学習を含む反復的なフレームワークを通じて,合理性の発展を促進する。
ToolBenchデータセットの実験結果は、RadAgentがベースラインよりも優れていることを示している。
論文 参考訳(メタデータ) (2023-08-24T03:11:45Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - The Equity Framework: Fairness Beyond Equalized Predictive Outcomes [0.0]
意思決定者が物理的・社会的環境を描写するモデルから逸脱するモデルを使用すると生じる公平性の問題について検討する。
モデルへの平等なアクセス、モデルからの平等な結果、モデルの平等な利用を考慮に入れたEquity Frameworkを定式化する。
論文 参考訳(メタデータ) (2022-04-18T20:49:51Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Decision Rule Elicitation for Domain Adaptation [93.02675868486932]
ヒトインザループ機械学習は、専門家からラベルを引き出すために人工知能(AI)で広く使用されています。
この作業では、専門家が意思決定を説明する決定ルールを作成できるようにします。
決定規則の適用はアルゴリズムのドメイン適応を改善し、専門家の知識をAIモデルに広めるのに役立つことを示す。
論文 参考訳(メタデータ) (2021-02-23T08:07:22Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [62.61153549123407]
建設のギャップを狭めるために観測結果と組み合わせることができる情報源として,歴史専門家による意思決定の利用について検討する。
本研究では,データ内の各ケースが1人の専門家によって評価された場合に,専門家の一貫性を間接的に推定する影響関数に基づく手法を提案する。
本研究は, 児童福祉領域における臨床現場でのシミュレーションと実世界データを用いて, 提案手法が構成ギャップを狭めることに成功していることを示す。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。