論文の概要: Fairness Score and Process Standardization: Framework for Fairness
Certification in Artificial Intelligence Systems
- arxiv url: http://arxiv.org/abs/2201.06952v1
- Date: Mon, 10 Jan 2022 15:45:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-23 17:57:52.327969
- Title: Fairness Score and Process Standardization: Framework for Fairness
Certification in Artificial Intelligence Systems
- Title(参考訳): 公正スコアとプロセス標準化:人工知能システムにおける公正認定のための枠組み
- Authors: Avinash Agarwal, Harsh Agarwal, Nihaarika Agarwal
- Abstract要約: 本稿では,データ駆動型AIシステムの公平性を測定するための新しいフェアネススコアを提案する。
また、公正性の概念を運用し、そのようなシステムの商用展開を容易にするためのフレームワークも提供する。
- 参考スコア(独自算出の注目度): 0.4297070083645048
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decisions made by various Artificial Intelligence (AI) systems greatly
influence our day-to-day lives. With the increasing use of AI systems, it
becomes crucial to know that they are fair, identify the underlying biases in
their decision-making, and create a standardized framework to ascertain their
fairness. In this paper, we propose a novel Fairness Score to measure the
fairness of a data-driven AI system and a Standard Operating Procedure (SOP)
for issuing Fairness Certification for such systems. Fairness Score and audit
process standardization will ensure quality, reduce ambiguity, enable
comparison and improve the trustworthiness of the AI systems. It will also
provide a framework to operationalise the concept of fairness and facilitate
the commercial deployment of such systems. Furthermore, a Fairness Certificate
issued by a designated third-party auditing agency following the standardized
process would boost the conviction of the organizations in the AI systems that
they intend to deploy. The Bias Index proposed in this paper also reveals
comparative bias amongst the various protected attributes within the dataset.
To substantiate the proposed framework, we iteratively train a model on biased
and unbiased data using multiple datasets and check that the Fairness Score and
the proposed process correctly identify the biases and judge the fairness.
- Abstract(参考訳): さまざまな人工知能(AI)システムによる決定は、私たちの日々の生活に大きな影響を与えます。
aiシステムの利用が増えるにつれて、彼らが公平であることを知り、意思決定の基盤となるバイアスを特定し、公平性を確認するための標準化されたフレームワークを作成することが重要になる。
本稿では,データ駆動型AIシステムの公正度を測定するための新しいフェアネススコアと,それらのシステムに対するフェアネス認証発行のための標準動作手順(SOP)を提案する。
公正スコアと監査プロセスの標準化は、品質の保証、あいまいさの低減、AIシステムの信頼性の比較と改善を可能にする。
また、公正性の概念を運用し、そのようなシステムの商用展開を容易にするためのフレームワークも提供する。
さらに、標準化されたプロセスに従って、指定された第三者監査機関によって発行される公正証明書は、デプロイするAIシステム内の組織の信念を高める。
本論文で提案するバイアス指標は,データセット内の各種保護属性間の比較バイアスも明らかにする。
提案手法を検証するために、複数のデータセットを用いてバイアス付きおよびバイアスなしデータのモデルを反復的にトレーニングし、フェアネススコアと提案プロセスがバイアスを正しく識別し、フェアネスを判断する。
関連論文リスト
- Peer-induced Fairness: A Causal Approach for Algorithmic Fairness Auditing [0.0]
欧州連合の人工知能法は2024年8月1日に施行された。
リスクの高いAIアプリケーションは、厳格な透明性と公正な基準に従わなければならない。
本稿では,対実的公正性とピア比較戦略の強みを組み合わせた新しい枠組みを提案する。
論文 参考訳(メタデータ) (2024-08-05T15:35:34Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Equal Confusion Fairness: Measuring Group-Based Disparities in Automated
Decision Systems [5.076419064097733]
本稿では,公正度の自動判定システムをチェックするための等混乱公正度試験と,不公平度を定量化するための新しい混乱パリティ誤差を提案する。
全体として、ここで提供される方法とメトリクスは、より広範な説明責任評価の一環として、自動決定システムの公正性を評価することができる。
論文 参考訳(メタデータ) (2023-07-02T04:44:19Z) - A Survey on Fairness-aware Recommender Systems [59.23208133653637]
本稿では,様々なレコメンデーションシナリオにおいてフェアネスの概念を提示し,現在の進歩を包括的に分類し,レコメンデーションシステムのさまざまな段階におけるフェアネスを促進するための典型的な手法を紹介する。
次に、フェアネスを意識したレコメンデーションシステムが実業界における産業応用に与える影響について検討する。
論文 参考訳(メタデータ) (2023-06-01T07:08:22Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Towards a Fairness-Aware Scoring System for Algorithmic Decision-Making [35.21763166288736]
本稿では,データ駆動型フェアネス対応スコアリングシステムを構築するための一般的なフレームワークを提案する。
提案するフレームワークは,実践者や政策立案者に対して,希望する公正性要件を選択するための柔軟性を提供する。
論文 参考訳(メタデータ) (2021-09-21T09:46:35Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - On the Identification of Fair Auditors to Evaluate Recommender Systems
based on a Novel Non-Comparative Fairness Notion [1.116812194101501]
意思決定支援システムは、多くの実践的な展開の文脈で差別的であることが判明した。
非比較正義の原理に基づく新しい公正概念を提案する。
提案したフェアネスの概念は、比較フェアネスの概念の観点からも保証を提供することを示す。
論文 参考訳(メタデータ) (2020-09-09T16:04:41Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z) - Getting Fairness Right: Towards a Toolbox for Practitioners [2.4364387374267427]
バイアスを意図せずに埋め込んで再現するAIシステムの潜在的なリスクは、マシンラーニング実践者や社会全体の注目を集めている。
本稿では,実践者が公正なAI実践を確実にするためのツールボックスのドラフトを提案する。
論文 参考訳(メタデータ) (2020-03-15T20:53:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。