論文の概要: Formal Specification, Assessment, and Enforcement of Fairness for Generative AIs
- arxiv url: http://arxiv.org/abs/2404.16663v2
- Date: Fri, 26 Apr 2024 09:30:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-29 12:06:07.855931
- Title: Formal Specification, Assessment, and Enforcement of Fairness for Generative AIs
- Title(参考訳): 生成AIのためのフェアネスの形式的仕様、評価、実施
- Authors: Chih-Hong Cheng, Changshun Wu, Harald Ruess, Xingyu Zhao, Saddek Bensalem,
- Abstract要約: 我々は,生成的AIの公正性の概念を,公正性を監視・強制するための基盤として特徴づける。
本研究は,複数のカテゴリーを考慮し,遅延フェアネス対策を併用して,フェアネスの爆発に対処するための相対的フェアネスについて検討する。
- 参考スコア(独自算出の注目度): 4.342427756164555
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reinforcing or even exacerbating societal biases and inequalities will increase significantly as generative AI increasingly produces useful artifacts, from text to images and beyond, for the real world. We address these issues by formally characterizing the notion of fairness for generative AI as a basis for monitoring and enforcing fairness. We define two levels of fairness using the notion of infinite sequences of abstractions of AI-generated artifacts such as text or images. The first is the fairness demonstrated on the generated sequences, which is evaluated only on the outputs while agnostic to the prompts and models used. The second is the inherent fairness of the generative AI model, which requires that fairness be manifested when input prompts are neutral, that is, they do not explicitly instruct the generative AI to produce a particular type of output. We also study relative intersectional fairness to counteract the combinatorial explosion of fairness when considering multiple categories together with lazy fairness enforcement. Finally, fairness monitoring and enforcement are tested against some current generative AI models.
- Abstract(参考訳): 社会的偏見や不平等の強化や悪化は、生成的AIがテキストから画像に至るまで、現実の世界において有用なアーティファクトをますます生み出すにつれて、大幅に増加するだろう。
これらの課題に対処するために、生成AIの公正性の概念を、公正性を監視・強制するための基盤として公式に特徴づける。
テキストや画像などのAI生成アーティファクトの抽象化の無限列の概念を用いて、フェアネスの2つのレベルを定義する。
ひとつは、生成されたシーケンスで実証された公平さであり、出力でのみ評価され、使用するプロンプトやモデルに依存しない。
2つ目は、生成AIモデルの本質的公正性であり、入力プロンプトが中立であるときに公正性を示す必要がある。
また,複数カテゴリと遅延フェアネス法を併用して検討する場合,相対的交差フェアネスについて検討した。
最後に、フェアネスの監視と実施は、現在の生成AIモデルに対してテストされる。
関連論文リスト
- Towards Effective Discrimination Testing for Generative AI [5.2817059203636845]
ジェネレーティブAI(GenAI)モデルは、差別行動に対する規制において、新たな課題を提示する。
我々は、GenAI公正性研究がこれらの課題をまだ満たしていないと論じ、代わりに既存のバイアス評価方法と規制目標との間には大きなギャップが残っている。
論文 参考訳(メタデータ) (2024-12-30T16:09:33Z) - Fairer Analysis and Demographically Balanced Face Generation for Fairer Face Verification [69.04239222633795]
顔認識と検証は、深層表現の導入によって性能が向上した2つのコンピュータビジョンタスクである。
現実のトレーニングデータセットにおける顔データの繊細な性質とバイアスによる倫理的、法的、技術的な課題は、彼らの開発を妨げる。
公平性を向上する新しい制御された生成パイプラインを導入する。
論文 参考訳(メタデータ) (2024-12-04T14:30:19Z) - Generative AI Enabled Matching for 6G Multiple Access [51.00960374545361]
我々は6G多重アクセスをサポートするGenAI対応マッチング生成フレームワークを提案する。
我々のフレームワークは、与えられた条件と事前定義された報酬に基づいて、より効果的なマッチング戦略を生成することができることを示す。
論文 参考訳(メタデータ) (2024-10-29T13:01:26Z) - GAIA: Rethinking Action Quality Assessment for AI-Generated Videos [56.047773400426486]
アクション品質アセスメント(AQA)アルゴリズムは、主に実際の特定のシナリオからのアクションに焦点を当て、規範的なアクション機能で事前訓練されている。
我々は,新たな因果推論の観点から大規模主観評価を行うことにより,GAIAを構築した。
その結果、従来のAQA手法、最近のT2Vベンチマークにおけるアクション関連指標、メインストリームビデオ品質手法は、それぞれ0.454、0.191、0.519のSRCCで性能が良くないことがわかった。
論文 参考訳(メタデータ) (2024-06-10T08:18:07Z) - The Impossibility of Fair LLMs [59.424918263776284]
大規模言語モデル(LLM)の時代において、公正なAIの必要性はますます明確になっている。
我々は、機械学習研究者が公正性を評価するために使った技術フレームワークについてレビューする。
我々は、特定のユースケースにおける公平性を達成するためのより現実的な目標のためのガイドラインを策定する。
論文 参考訳(メタデータ) (2024-05-28T04:36:15Z) - GenLens: A Systematic Evaluation of Visual GenAI Model Outputs [33.93591473459988]
GenLensは、GenAIモデル出力の体系的評価のために設計されたビジュアル分析インタフェースである。
モデル開発者によるユーザ調査によると、GenLensは、高い満足度で証明されたワークフローを効果的に強化する。
論文 参考訳(メタデータ) (2024-02-06T04:41:06Z) - Governance of Generative Artificial Intelligence for Companies [1.2818275315985972]
ジェネレーティブ・人工知能(GenAI)は、適切なガバナンスのない組織に素早く参入した。
GenAIの変革的な性質と規制措置に関する広範な議論にもかかわらず、限定的な研究は組織的なガバナンスに対処している。
本稿は、GenAIの基本的特徴をよりよく理解することを目的として、最近の研究を調査することで、このギャップを埋めるものである。
論文 参考訳(メタデータ) (2024-02-05T14:20:19Z) - Prompt Smells: An Omen for Undesirable Generative AI Outputs [4.105236597768038]
我々は、GenAIモデルの適用に関する制約に対処する上で、研究コミュニティに役立つ2つの新しい概念を提案する。
まず、GenAI出力の「望ましさ」の定義と、それに影響を与える3つの要因について述べる。
第2に、Martin Fowler氏のコードの臭いからインスピレーションを得た上で、我々は「急激な臭い」の概念と、それらがGenAI出力の嫌悪性に与える影響について提案する。
論文 参考訳(メタデータ) (2024-01-23T10:10:01Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Towards Fair Knowledge Transfer for Imbalanced Domain Adaptation [61.317911756566126]
本研究では,不均衡なドメイン間学習における公平性問題に対処するTowards Fair Knowledge Transferフレームワークを提案する。
具体的には、新規なクロスドメインミックスアップ生成を利用して、ターゲット情報でマイノリティソースセットを増強し、公正性を高める。
本モデルでは,2つのベンチマークで全体の精度を20%以上向上させる。
論文 参考訳(メタデータ) (2020-10-23T06:29:09Z) - Getting Fairness Right: Towards a Toolbox for Practitioners [2.4364387374267427]
バイアスを意図せずに埋め込んで再現するAIシステムの潜在的なリスクは、マシンラーニング実践者や社会全体の注目を集めている。
本稿では,実践者が公正なAI実践を確実にするためのツールボックスのドラフトを提案する。
論文 参考訳(メタデータ) (2020-03-15T20:53:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。