論文の概要: Prescriptive Machine Learning for Automated Decision Making: Challenges
and Opportunities
- arxiv url: http://arxiv.org/abs/2112.08268v1
- Date: Wed, 15 Dec 2021 17:02:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 15:47:21.570020
- Title: Prescriptive Machine Learning for Automated Decision Making: Challenges
and Opportunities
- Title(参考訳): 自動意思決定のための規範的機械学習:挑戦と機会
- Authors: Eyke H\"ullermeier
- Abstract要約: 機械学習(ML)の最近の応用は、予測モデリングでの使用から、規範モデリングでの使用への顕著なシフトを明らかにしている。
規範的モデリングには、学習のための新しい技術条件と、信頼性、責任、意思決定の倫理に関する新しい要求が伴う。
合理的かつ同時に責任ある方法で行動する意思決定エージェントのデータ駆動設計を支援するためには、規範的MLの厳密な方法論的基礎が必要である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent applications of machine learning (ML) reveal a noticeable shift from
its use for predictive modeling in the sense of a data-driven construction of
models mainly used for the purpose of prediction (of ground-truth facts) to its
use for prescriptive modeling. What is meant by this is the task of learning a
model that stipulates appropriate decisions about the right course of action in
real-world scenarios: Which medical therapy should be applied? Should this
person be hired for the job? As argued in this article, prescriptive modeling
comes with new technical conditions for learning and new demands regarding
reliability, responsibility, and the ethics of decision making. Therefore, to
support the data-driven design of decision-making agents that act in a rational
but at the same time responsible manner, a rigorous methodological foundation
of prescriptive ML is needed. The purpose of this short paper is to elaborate
on specific characteristics of prescriptive ML and to highlight some key
challenges it implies. Besides, drawing connections to other branches of
contemporary AI research, the grounding of prescriptive ML in a (generalized)
decision-theoretic framework is advocated.
- Abstract(参考訳): 機械学習(ml)の最近の応用は、予測(地上事実)の目的に主に使用されるモデルのデータ駆動構成という意味での予測モデリングの使用から、規範的モデリングの使用への顕著なシフトを示している。
これが意味することは、現実世界のシナリオにおいて、適切な行動方針に関する適切な決定を規定するモデルを学ぶというタスクである。
この人はその仕事に雇われるべきですか。
この記事では、規範的モデリングは、学習のための新しい技術条件と、信頼性、責任、意思決定の倫理に関する新しい要求を伴います。
したがって、合理的かつ責任ある方法で行動する意思決定エージェントのデータ駆動設計を支援するためには、厳密な規範的MLの方法論的基盤が必要である。
この短い論文の目的は、規範mlの特定の特徴を詳述し、それが示唆するいくつかの重要な課題を強調することである。
さらに、現代のAI研究の他の分野との接続を図り、(一般化された)決定論的枠組みにおける規範的MLの基盤を提唱する。
関連論文リスト
- Self-Healing Machine Learning: A Framework for Autonomous Adaptation in Real-World Environments [50.310636905746975]
実世界の機械学習システムは、基礎となるデータ生成プロセスの分散シフトによって、モデルの性能劣化に遭遇することが多い。
概念のドリフト適応のような既存のシフトへのアプローチは、その理性に依存しない性質によって制限される。
我々はこれらの制限を克服するために自己修復機械学習(SHML)を提案する。
論文 参考訳(メタデータ) (2024-10-31T20:05:51Z) - Selecting Interpretability Techniques for Healthcare Machine Learning models [69.65384453064829]
医療では、いくつかの意思決定シナリオにおいて、医療専門家を支援するために解釈可能なアルゴリズムを採用することが追求されている。
本稿では, ポストホックとモデルベースという8つのアルゴリズムを概説する。
論文 参考訳(メタデータ) (2024-06-14T17:49:04Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Fairness Implications of Heterogeneous Treatment Effect Estimation with
Machine Learning Methods in Policy-making [0.0]
予測機械学習の標準的なAIフェアネスアプローチは、すべての因果機械学習アプリケーションに適していないと我々は主張する。
政策決定は、通常、因果的機械学習モデルが間接的な力しか持たないような共同決定である、と我々は主張する。
論文 参考訳(メタデータ) (2023-09-02T03:06:14Z) - Leaving the Nest: Going Beyond Local Loss Functions for
Predict-Then-Optimize [57.22851616806617]
本手法は,文献から得られた4つの領域において,最先端の成果が得られることを示す。
提案手法は, 局所性仮定が破られた場合, 既存手法よりも200%近く性能が向上する。
論文 参考訳(メタデータ) (2023-05-26T11:17:45Z) - HEX: Human-in-the-loop Explainability via Deep Reinforcement Learning [2.322461721824713]
我々は、機械学習説明可能性(MLX)に対するHEX(Human-in-the-loop Deep reinforcement learning approach)を提案する。
我々の定式化は、基礎となるトレーニングデータではなく、問題となるMLモデルの決定境界を明示的に考慮している。
提案手法は,限られたデータシナリオで使用するために問題となるモデルの決定境界を明示的にキャプチャするHITL MLXポリシーを合成する。
論文 参考訳(メタデータ) (2022-06-02T23:53:40Z) - Using Shape Metrics to Describe 2D Data Points [0.0]
本稿では,2次元データを記述するために形状計測を用いて,解析をより説明しやすく解釈可能にすることを提案する。
これは、説明可能性の権利が不可欠である医療コミュニティにおける応用において特に重要である。
論文 参考訳(メタデータ) (2022-01-27T23:28:42Z) - Automated Machine Learning, Bounded Rationality, and Rational
Metareasoning [62.997667081978825]
有界合理性の観点から、自動機械学習(AutoML)と関連する問題を考察する。
リソース境界の下でアクションを取るには、エージェントがこれらのリソースを最適な方法で利用する方法を反映する必要がある。
論文 参考訳(メタデータ) (2021-09-10T09:10:20Z) - Explainable AI Enabled Inspection of Business Process Prediction Models [2.5229940062544496]
本稿では,モデル説明を用いて,機械学習の予測によって適用された推論を解析する手法を提案する。
本手法の新たな貢献は,解釈可能な機械学習機構によって生成された説明と,過去のプロセス実行を記録するイベントログから抽出された文脈的,あるいはドメイン的知識の両方を活用するモデル検査の提案である。
論文 参考訳(メタデータ) (2021-07-16T06:51:18Z) - Towards Model-informed Precision Dosing with Expert-in-the-loop Machine
Learning [0.0]
モデル学習ループに人的専門家を取り入れることで、モデル学習を加速し、解釈可能性を向上させるMLフレームワークを検討する。
本稿では,データアノテーションのコストが高い学習問題に対処することを目的とした,新たなヒューマン・イン・ザ・ループMLフレームワークを提案する。
精度測定への応用により,本手法はデータから解釈可能なルールを学習し,専門家の作業負荷を低減できる可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-28T03:45:09Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。