論文の概要: Conditional Fairness for Generative AIs
- arxiv url: http://arxiv.org/abs/2404.16663v4
- Date: Thu, 15 Aug 2024 10:03:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-16 18:28:05.307624
- Title: Conditional Fairness for Generative AIs
- Title(参考訳): 生成AIの条件フェアネス
- Authors: Chih-Hong Cheng, Harald Ruess, Changshun Wu, Xingyu Zhao,
- Abstract要約: GenAIの幅広い機能は、生成されるコンテキストに合わせて「条件フェアネス」を必要とする。
まず、生成した出力の公平さを、プロンプトとモデルとは独立に評価し、第二は中立なプロンプトで固有のフェアネスを評価する。
我々は,現在最先端のGenAIシステムで検証されている最小限の介入で条件フェアネスを強制する,エージェントベースのフレームワーク内で即時注入方式を開発する。
- 参考スコア(独自算出の注目度): 4.658756049231371
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The deployment of generative AI (GenAI) models raises significant fairness concerns, addressed in this paper through novel characterization and enforcement techniques specific to GenAI. Unlike standard AI performing specific tasks, GenAI's broad functionality requires "conditional fairness" tailored to the context being generated, such as demographic fairness in generating images of poor people versus successful business leaders. We define two fairness levels: the first evaluates fairness in generated outputs, independent of prompts and models; the second assesses inherent fairness with neutral prompts. Given the complexity of GenAI and challenges in fairness specifications, we focus on bounding the worst case, considering a GenAI system unfair if the distance between appearances of a specific group exceeds preset thresholds. We also explore combinatorial testing for accessing relative completeness in intersectional fairness. By bounding the worst case, we develop a prompt injection scheme within an agent-based framework to enforce conditional fairness with minimal intervention, validated on state-of-the-art GenAI systems.
- Abstract(参考訳): 生成型AI(GenAI)モデルの展開は、GenAI特有の新しい特徴付けと実施技術を通じて、重要な公正性に関する懸念を提起する。
特定のタスクを実行する標準的なAIとは違って、GenAIの幅広い機能は、貧しい人々のイメージを生成する際の人口的公平さやビジネスリーダーの成功など、生成されるコンテキストに合わせて"条件的公正性"を必要とする。
まず、生成した出力の公平さを、プロンプトとモデルとは独立に評価し、第二は中立なプロンプトで固有のフェアネスを評価する。
GenAIの複雑さとフェアネス仕様の課題を考えると、特定のグループの外観間の距離が予め設定された閾値を超えた場合、GenAIシステムの不公平さを考慮して、最悪のケースの境界に焦点をあてる。
また、交差フェアネスにおける相対完全性へのアクセスのための組合せテストについても検討する。
最悪の場合をバウンドすることで、エージェントベースのフレームワーク内で、最小限の介入で条件フェアネスを強制するための即時注入方式を開発し、最先端のGenAIシステムで検証する。
関連論文リスト
- Towards Effective Discrimination Testing for Generative AI [5.2817059203636845]
ジェネレーティブAI(GenAI)モデルは、差別行動に対する規制において、新たな課題を提示する。
我々は、GenAI公正性研究がこれらの課題をまだ満たしていないと論じ、代わりに既存のバイアス評価方法と規制目標との間には大きなギャップが残っている。
論文 参考訳(メタデータ) (2024-12-30T16:09:33Z) - Fairer Analysis and Demographically Balanced Face Generation for Fairer Face Verification [69.04239222633795]
顔認識と検証は、深層表現の導入によって性能が向上した2つのコンピュータビジョンタスクである。
現実のトレーニングデータセットにおける顔データの繊細な性質とバイアスによる倫理的、法的、技術的な課題は、彼らの開発を妨げる。
公平性を向上する新しい制御された生成パイプラインを導入する。
論文 参考訳(メタデータ) (2024-12-04T14:30:19Z) - Generative AI Enabled Matching for 6G Multiple Access [51.00960374545361]
我々は6G多重アクセスをサポートするGenAI対応マッチング生成フレームワークを提案する。
我々のフレームワークは、与えられた条件と事前定義された報酬に基づいて、より効果的なマッチング戦略を生成することができることを示す。
論文 参考訳(メタデータ) (2024-10-29T13:01:26Z) - GAIA: Rethinking Action Quality Assessment for AI-Generated Videos [56.047773400426486]
アクション品質アセスメント(AQA)アルゴリズムは、主に実際の特定のシナリオからのアクションに焦点を当て、規範的なアクション機能で事前訓練されている。
我々は,新たな因果推論の観点から大規模主観評価を行うことにより,GAIAを構築した。
その結果、従来のAQA手法、最近のT2Vベンチマークにおけるアクション関連指標、メインストリームビデオ品質手法は、それぞれ0.454、0.191、0.519のSRCCで性能が良くないことがわかった。
論文 参考訳(メタデータ) (2024-06-10T08:18:07Z) - The Impossibility of Fair LLMs [59.424918263776284]
大規模言語モデル(LLM)の時代において、公正なAIの必要性はますます明確になっている。
我々は、機械学習研究者が公正性を評価するために使った技術フレームワークについてレビューする。
我々は、特定のユースケースにおける公平性を達成するためのより現実的な目標のためのガイドラインを策定する。
論文 参考訳(メタデータ) (2024-05-28T04:36:15Z) - GenLens: A Systematic Evaluation of Visual GenAI Model Outputs [33.93591473459988]
GenLensは、GenAIモデル出力の体系的評価のために設計されたビジュアル分析インタフェースである。
モデル開発者によるユーザ調査によると、GenLensは、高い満足度で証明されたワークフローを効果的に強化する。
論文 参考訳(メタデータ) (2024-02-06T04:41:06Z) - Governance of Generative Artificial Intelligence for Companies [1.2818275315985972]
ジェネレーティブ・人工知能(GenAI)は、適切なガバナンスのない組織に素早く参入した。
GenAIの変革的な性質と規制措置に関する広範な議論にもかかわらず、限定的な研究は組織的なガバナンスに対処している。
本稿は、GenAIの基本的特徴をよりよく理解することを目的として、最近の研究を調査することで、このギャップを埋めるものである。
論文 参考訳(メタデータ) (2024-02-05T14:20:19Z) - Prompt Smells: An Omen for Undesirable Generative AI Outputs [4.105236597768038]
我々は、GenAIモデルの適用に関する制約に対処する上で、研究コミュニティに役立つ2つの新しい概念を提案する。
まず、GenAI出力の「望ましさ」の定義と、それに影響を与える3つの要因について述べる。
第2に、Martin Fowler氏のコードの臭いからインスピレーションを得た上で、我々は「急激な臭い」の概念と、それらがGenAI出力の嫌悪性に与える影響について提案する。
論文 参考訳(メタデータ) (2024-01-23T10:10:01Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Towards Fair Knowledge Transfer for Imbalanced Domain Adaptation [61.317911756566126]
本研究では,不均衡なドメイン間学習における公平性問題に対処するTowards Fair Knowledge Transferフレームワークを提案する。
具体的には、新規なクロスドメインミックスアップ生成を利用して、ターゲット情報でマイノリティソースセットを増強し、公正性を高める。
本モデルでは,2つのベンチマークで全体の精度を20%以上向上させる。
論文 参考訳(メタデータ) (2020-10-23T06:29:09Z) - Getting Fairness Right: Towards a Toolbox for Practitioners [2.4364387374267427]
バイアスを意図せずに埋め込んで再現するAIシステムの潜在的なリスクは、マシンラーニング実践者や社会全体の注目を集めている。
本稿では,実践者が公正なAI実践を確実にするためのツールボックスのドラフトを提案する。
論文 参考訳(メタデータ) (2020-03-15T20:53:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。