論文の概要: Measuring Bias in AI Models: An Statistical Approach Introducing N-Sigma
- arxiv url: http://arxiv.org/abs/2304.13680v2
- Date: Wed, 24 May 2023 10:48:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 01:25:08.801694
- Title: Measuring Bias in AI Models: An Statistical Approach Introducing N-Sigma
- Title(参考訳): aiモデルにおけるバイアスの測定:n-シグマを用いた統計的アプローチ
- Authors: Daniel DeAlcala, Ignacio Serna, Aythami Morales, Julian Fierrez,
Javier Ortega-Garcia
- Abstract要約: 自動意思決定システムにおけるバイアスを測定する統計的アプローチを解析する。
我々は,N-Sigma法に基づく統計的手法を用いて,機械学習モデルのバイアスを測定する新しい手法を提案する。
- 参考スコア(独自算出の注目度): 19.072543709069087
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The new regulatory framework proposal on Artificial Intelligence (AI)
published by the European Commission establishes a new risk-based legal
approach. The proposal highlights the need to develop adequate risk assessments
for the different uses of AI. This risk assessment should address, among
others, the detection and mitigation of bias in AI. In this work we analyze
statistical approaches to measure biases in automatic decision-making systems.
We focus our experiments in face recognition technologies. We propose a novel
way to measure the biases in machine learning models using a statistical
approach based on the N-Sigma method. N-Sigma is a popular statistical approach
used to validate hypotheses in general science such as physics and social areas
and its application to machine learning is yet unexplored. In this work we
study how to apply this methodology to develop new risk assessment frameworks
based on bias analysis and we discuss the main advantages and drawbacks with
respect to other popular statistical tests.
- Abstract(参考訳): 欧州委員会が公表した人工知能(AI)に関する新たな規制枠組みの提案は、新たなリスクベースの法的アプローチを確立している。
この提案は、AIのさまざまな用途に対する適切なリスクアセスメントを開発する必要性を強調している。
このリスク評価は、AIにおけるバイアスの検出と緩和に対処する必要がある。
本研究では,自動意思決定システムにおけるバイアスを測定する統計的アプローチを分析する。
私たちの実験は顔認識技術に焦点を合わせます。
我々は,N-Sigma法に基づく統計的手法を用いて,機械学習モデルのバイアスを測定する新しい手法を提案する。
n-sigmaは、物理学や社会分野などの一般科学における仮説を検証するために使われる一般的な統計手法であり、機械学習への応用はまだ未定である。
本研究では,バイアス分析に基づく新たなリスクアセスメントフレームワークの開発にこの手法を適用する方法について検討し,他の統計検査に対する主な利点と欠点について考察する。
関連論文リスト
- Socio-Economic Consequences of Generative AI: A Review of Methodological Approaches [0.0]
我々は、生成AIの導入による経済的および社会的影響を予測するのに使用される主要な方法論を特定する。
総合的な文献レビューを通じて、我々はこの技術革命の多面的影響を評価するための様々な方法論を明らかにした。
論文 参考訳(メタデータ) (2024-11-14T09:40:25Z) - An evidence-based methodology for human rights impact assessment (HRIA) in the development of AI data-intensive systems [49.1574468325115]
我々は、すでに人権がデータ利用の分野で決定を下していることを示している。
本研究は人権影響評価(HRIA)の方法論とモデルである。
提案手法は,具体的ケーススタディで検証し,その有効性と有効性を示す。
論文 参考訳(メタデータ) (2024-07-30T16:27:52Z) - Assessing AI Utility: The Random Guesser Test for Sequential Decision-Making Systems [5.62395683551121]
本稿では,人工知能(AI)システムのリスクと脆弱性を偏りのある決定に対して評価するための一般的なアプローチを提案する。
提案手法の導出原理は、任意のAIアルゴリズムがランダムな推測よりも優れていることである。
現代のリコメンデータシステムは、リスクの低い選択肢を優先する傾向が似たようなものである可能性があることを強調する。
論文 参考訳(メタデータ) (2024-07-25T13:44:22Z) - Evaluating the Effectiveness of Index-Based Treatment Allocation [42.040099398176665]
リソースが不足している場合には、リソースを誰が受け取るかを決定するためにアロケーションポリシーが必要である。
本稿では、ランダム化制御試験のデータを用いて、インデックスベースのアロケーションポリシーを評価する手法を提案する。
論文 参考訳(メタデータ) (2024-02-19T01:55:55Z) - Unmasking Bias in AI: A Systematic Review of Bias Detection and Mitigation Strategies in Electronic Health Record-based Models [6.300835344100545]
人工知能を電子健康記録と共に活用することは、医療を改善する変革の可能性を秘めている。
しかし、医療格差を悪化させるAIのバイアスに対処することは見過ごせない。
本研究では,EHRデータを用いたAIモデルにおいて,多様なバイアスを検出・緩和する手法について検討する。
論文 参考訳(メタデータ) (2023-10-30T18:29:15Z) - Distribution-free risk assessment of regression-based machine learning
algorithms [6.507711025292814]
我々は回帰アルゴリズムとモデル予測の周囲に定義された区間内に存在する真のラベルの確率を計算するリスク評価タスクに焦点をあてる。
そこで,本研究では,正のラベルを所定の確率で含むことが保証される予測区間を提供する共形予測手法を用いてリスク評価問題を解決する。
論文 参考訳(メタデータ) (2023-10-05T13:57:24Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Deep Feature Statistics Mapping for Generalized Screen Content Image Quality Assessment [60.88265569998563]
我々は,SCIの質を効果的に決定できる指標に基づいて,SCIの統計を学習するための最初の試みを行う。
統計的偏差が品質評価に有効に活用できることを実証的に示す。
論文 参考訳(メタデータ) (2022-09-12T15:26:13Z) - Online Bootstrap Inference For Policy Evaluation in Reinforcement
Learning [90.59143158534849]
近年の強化学習の出現は、頑健な統計的推論手法の需要を生み出している。
オンライン学習における統計的推論の既存の方法は、独立してサンプリングされた観察を含む設定に限られる。
オンラインブートストラップは線形近似アルゴリズムにおける統計的推測のための柔軟で効率的な手法であるが、マルコフノイズを含む設定における有効性はまだ検討されていない。
論文 参考訳(メタデータ) (2021-08-08T18:26:35Z) - Multi Agent System for Machine Learning Under Uncertainty in Cyber
Physical Manufacturing System [78.60415450507706]
近年の予測機械学習の進歩は、製造における様々なユースケースに応用されている。
ほとんどの研究は、それに関連する不確実性に対処することなく予測精度を最大化することに焦点を当てた。
本稿では,機械学習における不確実性の原因を特定し,不確実性下での機械学習システムの成功基準を確立する。
論文 参考訳(メタデータ) (2021-07-28T10:28:05Z) - SAMBA: Safe Model-Based & Active Reinforcement Learning [59.01424351231993]
SAMBAは、確率論的モデリング、情報理論、統計学といった側面を組み合わせた安全な強化学習のためのフレームワークである。
我々は,低次元および高次元の状態表現を含む安全な力学系ベンチマークを用いて,アルゴリズムの評価を行った。
アクティブなメトリクスと安全性の制約を詳細に分析することで,フレームワークの有効性を直感的に評価する。
論文 参考訳(メタデータ) (2020-06-12T10:40:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。