論文の概要: Formal Specification, Assessment, and Enforcement of Fairness for Generative AIs
- arxiv url: http://arxiv.org/abs/2404.16663v1
- Date: Thu, 25 Apr 2024 15:04:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-26 13:20:37.329282
- Title: Formal Specification, Assessment, and Enforcement of Fairness for Generative AIs
- Title(参考訳): 生成AIのためのフェアネスの形式的仕様、評価、実施
- Authors: Chih-Hong Cheng, Changshun Wu, Harald Ruess, Xingyu Zhao, Saddek Bensalem,
- Abstract要約: 我々は,生成的AIの公正性の概念を,公正性を監視・強制するための基盤として特徴づける。
実装された仕様は、いくつかの生成AIモデルに対してテストされた興味深い結果を示している。
- 参考スコア(独自算出の注目度): 4.342427756164555
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The risk of reinforcing or exacerbating societal biases and inequalities is growing as generative AI increasingly produces content that resembles human output, from text to images and beyond. Here we formally characterize the notion of fairness for generative AI as a basis for monitoring and enforcing fairness. We define two levels of fairness utilizing the concept of infinite words. The first is the fairness demonstrated on the generated sequences, which is only evaluated on the outputs while agnostic to the prompts/models used. The second is the inherent fairness of the generative AI model, which requires that fairness be manifested when input prompts are neutral, that is, they do not explicitly instruct the generative AI to produce a particular type of output. We also study relative intersectional fairness to counteract the combinatorial explosion of fairness when considering multiple categories together with lazy fairness enforcement. Our implemented specification monitoring and enforcement tool shows interesting results when tested against several generative AI models.
- Abstract(参考訳): 生成的AIは、テキストから画像まで、人間の出力に似たコンテンツを、ますます生み出すにつれて、社会的バイアスや不平等の強化や悪化のリスクが高まっている。
ここでは、生成AIの公正性の概念を、公正性を監視し、強制するための基盤として公式に特徴づける。
無限語の概念を用いた公平性の2つのレベルを定義する。
1つ目は、生成されたシーケンスで示される公平さであり、これは出力でのみ評価されるが、使用するプロンプト/モデルには依存しない。
2つ目は、生成AIモデルの本質的公正性であり、入力プロンプトが中立であるときに公正性を示す必要がある。
また,複数カテゴリと遅延フェアネス法を併用して検討する場合,相対的交差フェアネスについて検討した。
実装された仕様監視と実施ツールは、複数の生成AIモデルに対してテストした場合に興味深い結果を示す。
関連論文リスト
- Fairness Explainability using Optimal Transport with Applications in
Image Classification [0.46040036610482665]
機械学習アプリケーションにおける差別の原因を明らかにするための包括的アプローチを提案する。
We leverage Wasserstein barycenters to achieve fair predictions and introduce an extension to pinpoint bias-associated region。
これにより、各特徴がバイアスに影響を及ぼすかどうかを測定するために強制的公正性を使用する凝集系を導出することができる。
論文 参考訳(メタデータ) (2023-08-22T00:10:23Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - A Seven-Layer Model for Standardising AI Fairness Assessment [0.5076419064097732]
AIシステムは、開始から使用まで、ライフサイクルのあらゆる段階でバイアスを起こしやすいことを詳しく説明します。
オープンシステム相互接続(OSI)モデルにインスパイアされた,AIフェアネスハンドリングの標準化を目的とした,新しい7層モデルを提案する。
論文 参考訳(メタデータ) (2022-12-21T17:28:07Z) - COFFEE: Counterfactual Fairness for Personalized Text Generation in
Explainable Recommendation [56.520470678876656]
ユーザ記述テキストに固有のバイアスは、言語品質の異なるレベルとユーザの保護された属性を関連付けることができる。
説明生成における測度特異的な対実的公正性を実現するための一般的な枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-14T02:29:10Z) - Rethinking Fairness: An Interdisciplinary Survey of Critiques of
Hegemonic ML Fairness Approaches [0.0]
本稿では、機械学習(ML)における現在の公平性向上技術介入の批判を評価し、比較する。
哲学、フェミニスト研究、批判的な人種と民族研究、法学、人類学、科学と技術研究など、様々な非計算分野から派生している。
この記事は、社会における強大な力のダイナミクスと構造的不正を積極的に破壊する未来のMLフェアネス研究の方向性を想像することで締めくくっている。
論文 参考訳(メタデータ) (2022-05-06T14:27:57Z) - Subverting Fair Image Search with Generative Adversarial Perturbations [14.669429931620689]
本稿では,最先端の公正な画像検索エンジンを攻撃するケーススタディを提案する。
これらの混乱は、公正に再ランク付けされたアルゴリズムが、敵対するサブ人口からの人々を含む画像のランクを不当に向上させようとする。
我々は、我々の攻撃が多数の変数に対して堅牢であること、検索結果の関連性にほとんど影響を与えないこと、そして厳密な脅威モデルの下で成功することを実証した。
論文 参考訳(メタデータ) (2022-05-05T03:05:34Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Learning Fair Node Representations with Graph Counterfactual Fairness [56.32231787113689]
以上の事実から導かれるバイアスを考慮したグラフ反事実公正性を提案する。
我々は各ノードとその周辺住民の感度特性の摂動に対応する反事実を生成する。
我々のフレームワークはグラフの反ファクトフェアネスにおける最先端のベースラインよりも優れています。
論文 参考訳(メタデータ) (2022-01-10T21:43:44Z) - DECAF: Generating Fair Synthetic Data Using Causally-Aware Generative
Networks [71.6879432974126]
本稿では,GANに基づく表型データのための公正な合成データ生成装置であるDECAFを紹介する。
DeCAFは望ましくないバイアスを除去し,高品質な合成データを生成可能であることを示す。
下流モデルの収束と公平性に関する理論的保証を提供する。
論文 参考訳(メタデータ) (2021-10-25T12:39:56Z) - Nested Counterfactual Identification from Arbitrary Surrogate
Experiments [95.48089725859298]
観測と実験の任意の組み合わせからネスト反事実の同定について検討した。
具体的には、任意のネストされた反事実を非ネストされたものへ写像できる反ファクト的非ネスト定理(英語版)(CUT)を証明する。
論文 参考訳(メタデータ) (2021-07-07T12:51:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。