論文の概要: Uncertainty-aware predictive modeling for fair data-driven decisions
- arxiv url: http://arxiv.org/abs/2211.02730v1
- Date: Fri, 4 Nov 2022 20:04:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 16:02:47.644449
- Title: Uncertainty-aware predictive modeling for fair data-driven decisions
- Title(参考訳): 不確実性を考慮した公平なデータ駆動決定のための予測モデリング
- Authors: Patrick Kaiser, Christoph Kern, David R\"ugamer
- Abstract要約: フェアMLシステムは安全なMLシステムであることを示す。
公平な判断については、不確実な分類を持つ個人に対して、安全なフェールオプションを使用することを議論する。
- 参考スコア(独自算出の注目度): 5.371337604556311
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Both industry and academia have made considerable progress in developing
trustworthy and responsible machine learning (ML) systems. While critical
concepts like fairness and explainability are often addressed, the safety of
systems is typically not sufficiently taken into account. By viewing
data-driven decision systems as socio-technical systems, we draw on the
uncertainty in ML literature to show how fairML systems can also be safeML
systems. We posit that a fair model needs to be an uncertainty-aware model,
e.g. by drawing on distributional regression. For fair decisions, we argue that
a safe fail option should be used for individuals with uncertain
categorization. We introduce semi-structured deep distributional regression as
a modeling framework which addresses multiple concerns brought against standard
ML models and show its use in a real-world example of algorithmic profiling of
job seekers.
- Abstract(参考訳): 産業と学術の両方が、信頼できる責任ある機械学習(ML)システムの開発に大きく進歩している。
公平さや説明可能性といった重要な概念はよく扱われるが、システムの安全性は一般的に十分に考慮されていない。
データ駆動型意思決定システムを社会技術システムとして見ることにより、機械学習の文献における不確実性に注目し、フェアMLシステムが安全なMLシステムであることを示す。
分布回帰(distribution regression)を描くなどして、公平なモデルは不確実性を認識するモデルである必要があると仮定する。
公平な判断のために、安全なフェールオプションは、未知の分類を持つ個人に使用されるべきだと論じます。
我々は,標準mlモデルに対する複数の懸念に対処するモデリングフレームワークとして,半構造化深分布回帰を導入し,その利用を求職者のアルゴリズム的プロファイリングの実例で示す。
関連論文リスト
- Decomposing Uncertainty for Large Language Models through Input
Clarification Ensembling [74.00331519233026]
大規模言語モデル(LLM)のための不確実性分解フレームワークを提案する。
我々のフレームワークは入力の一連の明確化を生成し、それらを固定LLMに入力し、対応する予測をアンサンブルする。
実験により,提案手法は様々なタスクに対して正確かつ確実な不確実性定量化を提供することを示した。
論文 参考訳(メタデータ) (2023-11-15T05:58:35Z) - Dynamic Model Agnostic Reliability Evaluation of Machine-Learning
Methods Integrated in Instrumentation & Control Systems [1.8978726202765634]
データ駆動型ニューラルネットワークベースの機械学習アルゴリズムの信頼性は十分に評価されていない。
National Institute for Standards and Technologyの最近のレポートでは、MLにおける信頼性は採用にとって重要な障壁となっている。
トレーニングデータセットにアウト・オブ・ディストリビューション検出を組み込むことにより、ML予測の相対的信頼性を評価するためのリアルタイムモデル非依存手法を実証する。
論文 参考訳(メタデータ) (2023-08-08T18:25:42Z) - A Meta-heuristic Approach to Estimate and Explain Classifier Uncertainty [0.4264192013842096]
本研究は,人間と機械学習の双方の意思決定に相互に関係する因子の観点から,インスタンスの複雑性を特徴付けるクラス非依存型メタヒューリスティックスを提案する。
提案された測度とフレームワークは、より複雑なインスタンスのモデル開発を改善するとともに、モデルの棄却と説明の新しい手段を提供するという約束を持っている。
論文 参考訳(メタデータ) (2023-04-20T13:09:28Z) - Analyzing a Caching Model [7.378507865227209]
解釈容易性は、現実世界のデプロイメントにおいて、依然として大きな障害である。
現状のキャッシュモデルを分析することで、単純な統計以上の概念を学習したことを示す。
論文 参考訳(メタデータ) (2021-12-13T19:53:07Z) - Interpretability in Safety-Critical FinancialTrading Systems [15.060749321774136]
2020年、世界で最も洗練された量子ヘッジファンドのいくつかが損失を被った。
我々は、トレーディングモデルの予測をどのように操作できるかを正確に評価するために、勾配に基づくアプローチを実装した。
提案手法では,入出力分布に大きな負のずれが生じる,サンプル内入力設定のように見えることが判明した。
論文 参考訳(メタデータ) (2021-09-24T17:05:58Z) - Multi Agent System for Machine Learning Under Uncertainty in Cyber
Physical Manufacturing System [78.60415450507706]
近年の予測機械学習の進歩は、製造における様々なユースケースに応用されている。
ほとんどの研究は、それに関連する不確実性に対処することなく予測精度を最大化することに焦点を当てた。
本稿では,機械学習における不確実性の原因を特定し,不確実性下での機械学習システムの成功基準を確立する。
論文 参考訳(メタデータ) (2021-07-28T10:28:05Z) - Approaching Neural Network Uncertainty Realism [53.308409014122816]
自動運転車などの安全クリティカルなシステムには、定量化または少なくとも上限の不確実性が不可欠です。
マハラノビス距離に基づく統計的テストにより、厳しい品質基準である不確実性リアリズムを評価します。
自動車分野に採用し、プレーンエンコーダデコーダモデルと比較して、不確実性リアリズムを大幅に改善することを示した。
論文 参考訳(メタデータ) (2021-01-08T11:56:12Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - LiFT: A Scalable Framework for Measuring Fairness in ML Applications [18.54302159142362]
本稿では、大規模なMLシステムの一部として、フェアネスメトリクスのスケーラブルな計算のためのフレームワークであるLinkedIn Fairness Toolkit(LiFT)を紹介する。
フェアネスツールを実際に導入する際の課題と、LinkedInでのデプロイメント中に学んだ教訓について論じる。
論文 参考訳(メタデータ) (2020-08-14T03:55:31Z) - An Uncertainty-based Human-in-the-loop System for Industrial Tool Wear
Analysis [68.8204255655161]
人間のループシステムにおけるモンテカルロのドロップアウトに基づく不確実性対策により,システムの透明性と性能が向上することを示す。
シミュレーション研究により、不確実性に基づく「ループ内人間システム」は、様々なレベルの人間の関与に対する性能を高めることが示されている。
論文 参考訳(メタデータ) (2020-07-14T15:47:37Z) - Providing reliability in Recommender Systems through Bernoulli Matrix
Factorization [63.732639864601914]
本稿では,予測値と信頼性値の両方を提供するためにBernoulli Matrix Factorization (BeMF)を提案する。
BeMFはメモリベースのフィルタリングではなく、モデルベースの協調フィルタリングに作用する。
予測の信頼性が高ければ高いほど、それが間違っているという責任は少なくなる。
論文 参考訳(メタデータ) (2020-06-05T14:24:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。