論文の概要: Unbiasing on the Fly: Explanation-Guided Human Oversight of Machine Learning System Decisions
- arxiv url: http://arxiv.org/abs/2406.17906v1
- Date: Tue, 25 Jun 2024 19:40:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-27 15:27:11.630351
- Title: Unbiasing on the Fly: Explanation-Guided Human Oversight of Machine Learning System Decisions
- Title(参考訳): 飛行中の不偏性: 機械学習システム決定における説明誘導型人間監督
- Authors: Hussaini Mamman, Shuib Basri, Abdullateef Balogun, Abubakar Abdullahi Imam, Ganesh Kumar, Luiz Fernando Capretz,
- Abstract要約: 本稿では,デプロイされたMLシステムにおいて,オンザフライトラッキングと識別の補正のための新しいフレームワークを提案する。
このフレームワークは、MLシステムによる予測を継続的に監視し、差別的な結果をフラグ付けする。
このHuman-in-the-loopアプローチは、レビュアーがMLシステム決定を受け入れたり、無効にしたりすることを可能にする。
- 参考スコア(独自算出の注目度): 4.24106429730184
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The widespread adoption of ML systems across critical domains like hiring, finance, and healthcare raises growing concerns about their potential for discriminatory decision-making based on protected attributes. While efforts to ensure fairness during development are crucial, they leave deployed ML systems vulnerable to potentially exhibiting discrimination during their operations. To address this gap, we propose a novel framework for on-the-fly tracking and correction of discrimination in deployed ML systems. Leveraging counterfactual explanations, the framework continuously monitors the predictions made by an ML system and flags discriminatory outcomes. When flagged, post-hoc explanations related to the original prediction and the counterfactual alternatives are presented to a human reviewer for real-time intervention. This human-in-the-loop approach empowers reviewers to accept or override the ML system decision, enabling fair and responsible ML operation under dynamic settings. While further work is needed for validation and refinement, this framework offers a promising avenue for mitigating discrimination and building trust in ML systems deployed in a wide range of domains.
- Abstract(参考訳): 雇用、金融、医療といった重要な領域にまたがるMLシステムの普及は、保護された属性に基づいた差別的意思決定の可能性に対する懸念を高めている。
開発中の公正性を保証する努力は不可欠だが、運用中に差別を示す可能性のある脆弱性を持つデプロイされたMLシステムを残している。
このギャップに対処するために,デプロイされたMLシステムにおいて,オンザフライトラッキングと識別の補正を行う新しいフレームワークを提案する。
このフレームワークは、カウンターファクトの説明を活用することで、MLシステムによる予測を継続的に監視し、差別的な結果をフラグ付けする。
フラグを付けると、オリジナルの予測と反現実的な代替案に関するポストホックな説明が、リアルタイムの介入のために人間レビュアーに提示される。
このHuman-in-the-loopアプローチにより、レビュアーはMLシステム決定を受理または無効にすることができ、動的設定の下で公正で責任あるML操作を可能にする。
検証と改善にはさらなる作業が必要だが、このフレームワークは差別を緩和し、幅広いドメインにデプロイされたMLシステムに対する信頼を構築するための有望な道を提供する。
関連論文リスト
- Drawing the Line: Enhancing Trustworthiness of MLLMs Through the Power of Refusal [21.342265570934995]
既存の手法はMLLMの信頼性を高める手段としての拒絶応答の重要性をほとんど見落としてきた。
InBoL(Information Boundary-Aware Learning Framework)は,MLLMが不十分な情報に遭遇する際のユーザクエリの応答を拒否する,新たなアプローチである。
このフレームワークでは、包括的なデータ生成パイプラインと、適切な拒絶応答を提供するモデルの能力を改善するためのトレーニング戦略が導入された。
論文 参考訳(メタデータ) (2024-12-15T14:17:14Z) - Self-Healing Machine Learning: A Framework for Autonomous Adaptation in Real-World Environments [50.310636905746975]
実世界の機械学習システムは、基礎となるデータ生成プロセスの分散シフトによって、モデルの性能劣化に遭遇することが多い。
概念のドリフト適応のような既存のシフトへのアプローチは、その理性に依存しない性質によって制限される。
我々はこれらの制限を克服するために自己修復機械学習(SHML)を提案する。
論文 参考訳(メタデータ) (2024-10-31T20:05:51Z) - Preemptive Detection and Correction of Misaligned Actions in LLM Agents [70.54226917774933]
InferActは、実行前に不整合アクションを検出する新しいアプローチである。
タイムリーな修正をユーザーに警告し、有害な結果を防ぐ。
InferActは、ミスアライメントされたアクション検出におけるベースラインに対するMarco-F1の最大20%の改善を実現している。
論文 参考訳(メタデータ) (2024-07-16T15:24:44Z) - Formalising Anti-Discrimination Law in Automated Decision Systems [1.560976479364936]
英国における差別防止法に基づく新たな意思決定理論の枠組みを導入する。
本稿では,推定誤差と基礎となるデータ生成過程を考慮に入れた「条件推定パリティ」指標を提案する。
弊社のアプローチは、機械学習の公正度測定値と差別防止法の分離を橋渡しし、非差別的自動意思決定システムを開発するための法的基盤となるフレームワークを提供する。
論文 参考訳(メタデータ) (2024-06-29T10:59:21Z) - Evaluating Interventional Reasoning Capabilities of Large Language Models [58.52919374786108]
大規模言語モデル(LLM)は意思決定タスクを自動化するために使用される。
本稿では,LPMが介入に応じてデータ生成プロセスの知識を正確に更新できるかどうかを評価する。
さまざまな因果グラフ(例えば、コンバウンディング、仲介)と変数タイプにまたがるベンチマークを作成します。
これらのベンチマークにより、LLMが事実を記憶したり、他のショートカットを見つけたりすることで、変化を正確に予測する能力を切り離すことができます。
論文 参考訳(メタデータ) (2024-04-08T14:15:56Z) - Uncertainty-aware predictive modeling for fair data-driven decisions [5.371337604556311]
フェアMLシステムは安全なMLシステムであることを示す。
公平な判断については、不確実な分類を持つ個人に対して、安全なフェールオプションを使用することを議論する。
論文 参考訳(メタデータ) (2022-11-04T20:04:39Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Fairness-aware Adversarial Perturbation Towards Bias Mitigation for
Deployed Deep Models [32.39167033858135]
公平さの優先順位付けは人工知能(AI)システムにおいて重要である。
我々は、よりフレキシブルなアプローチ、すなわち、公正を意識した敵対的摂動(FAAP)を提案する。
FAAPは、フェアネス関連の機能で盲目的に配備されたモデルに入力データを摂動させることを学ぶ。
論文 参考訳(メタデータ) (2022-03-03T09:26:00Z) - Characterizing and Detecting Mismatch in Machine-Learning-Enabled
Systems [1.4695979686066065]
機械学習システムの開発と展開は依然として課題だ。
本論文では,エンドツーエンドのML対応システム開発における知見とその意義について報告する。
論文 参考訳(メタデータ) (2021-03-25T19:40:29Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [62.61153549123407]
建設のギャップを狭めるために観測結果と組み合わせることができる情報源として,歴史専門家による意思決定の利用について検討する。
本研究では,データ内の各ケースが1人の専門家によって評価された場合に,専門家の一貫性を間接的に推定する影響関数に基づく手法を提案する。
本研究は, 児童福祉領域における臨床現場でのシミュレーションと実世界データを用いて, 提案手法が構成ギャップを狭めることに成功していることを示す。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - When Does Uncertainty Matter?: Understanding the Impact of Predictive
Uncertainty in ML Assisted Decision Making [68.19284302320146]
我々は,異なるレベルの専門知識を持つ人々が,異なるタイプの予測不確実性にどう反応するかを評価するために,ユーザスタディを実施している。
その結果,後続の予測分布を示すことは,MLモデルの予測との相違点が小さくなることがわかった。
このことは、後続の予測分布は、人間の分布の種類や専門性を考慮し、注意を払って使用するべき有用な決定支援として役立つ可能性があることを示唆している。
論文 参考訳(メタデータ) (2020-11-12T02:23:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。