論文の概要: Conditional Fairness for Generative AIs
- arxiv url: http://arxiv.org/abs/2404.16663v4
- Date: Thu, 15 Aug 2024 10:03:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-16 18:28:05.307624
- Title: Conditional Fairness for Generative AIs
- Title(参考訳): 生成AIの条件フェアネス
- Authors: Chih-Hong Cheng, Harald Ruess, Changshun Wu, Xingyu Zhao,
- Abstract要約: GenAIの幅広い機能は、生成されるコンテキストに合わせて「条件フェアネス」を必要とする。
まず、生成した出力の公平さを、プロンプトとモデルとは独立に評価し、第二は中立なプロンプトで固有のフェアネスを評価する。
我々は,現在最先端のGenAIシステムで検証されている最小限の介入で条件フェアネスを強制する,エージェントベースのフレームワーク内で即時注入方式を開発する。
- 参考スコア(独自算出の注目度): 4.658756049231371
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The deployment of generative AI (GenAI) models raises significant fairness concerns, addressed in this paper through novel characterization and enforcement techniques specific to GenAI. Unlike standard AI performing specific tasks, GenAI's broad functionality requires "conditional fairness" tailored to the context being generated, such as demographic fairness in generating images of poor people versus successful business leaders. We define two fairness levels: the first evaluates fairness in generated outputs, independent of prompts and models; the second assesses inherent fairness with neutral prompts. Given the complexity of GenAI and challenges in fairness specifications, we focus on bounding the worst case, considering a GenAI system unfair if the distance between appearances of a specific group exceeds preset thresholds. We also explore combinatorial testing for accessing relative completeness in intersectional fairness. By bounding the worst case, we develop a prompt injection scheme within an agent-based framework to enforce conditional fairness with minimal intervention, validated on state-of-the-art GenAI systems.
- Abstract(参考訳): 生成型AI(GenAI)モデルの展開は、GenAI特有の新しい特徴付けと実施技術を通じて、重要な公正性に関する懸念を提起する。
特定のタスクを実行する標準的なAIとは違って、GenAIの幅広い機能は、貧しい人々のイメージを生成する際の人口的公平さやビジネスリーダーの成功など、生成されるコンテキストに合わせて"条件的公正性"を必要とする。
まず、生成した出力の公平さを、プロンプトとモデルとは独立に評価し、第二は中立なプロンプトで固有のフェアネスを評価する。
GenAIの複雑さとフェアネス仕様の課題を考えると、特定のグループの外観間の距離が予め設定された閾値を超えた場合、GenAIシステムの不公平さを考慮して、最悪のケースの境界に焦点をあてる。
また、交差フェアネスにおける相対完全性へのアクセスのための組合せテストについても検討する。
最悪の場合をバウンドすることで、エージェントベースのフレームワーク内で、最小限の介入で条件フェアネスを強制するための即時注入方式を開発し、最先端のGenAIシステムで検証する。
関連論文リスト
- Generative AI Enabled Matching for 6G Multiple Access [51.00960374545361]
我々は6G多重アクセスをサポートするGenAI対応マッチング生成フレームワークを提案する。
我々のフレームワークは、与えられた条件と事前定義された報酬に基づいて、より効果的なマッチング戦略を生成することができることを示す。
論文 参考訳(メタデータ) (2024-10-29T13:01:26Z) - GAIA: Rethinking Action Quality Assessment for AI-Generated Videos [56.047773400426486]
アクション品質アセスメント(AQA)アルゴリズムは、主に実際の特定のシナリオからのアクションに焦点を当て、規範的なアクション機能で事前訓練されている。
我々は,新たな因果推論の観点から大規模主観評価を行うことにより,GAIAを構築した。
その結果、従来のAQA手法、最近のT2Vベンチマークにおけるアクション関連指標、メインストリームビデオ品質手法は、それぞれ0.454、0.191、0.519のSRCCで性能が良くないことがわかった。
論文 参考訳(メタデータ) (2024-06-10T08:18:07Z) - The Impossibility of Fair LLMs [59.424918263776284]
大規模言語モデル(LLM)の時代において、公正なAIの必要性はますます明確になっている。
我々は、機械学習研究者が公正性を評価するために使った技術フレームワークについてレビューする。
我々は、特定のユースケースにおける公平性を達成するためのより現実的な目標のためのガイドラインを策定する。
論文 参考訳(メタデータ) (2024-05-28T04:36:15Z) - GenLens: A Systematic Evaluation of Visual GenAI Model Outputs [33.93591473459988]
GenLensは、GenAIモデル出力の体系的評価のために設計されたビジュアル分析インタフェースである。
モデル開発者によるユーザ調査によると、GenLensは、高い満足度で証明されたワークフローを効果的に強化する。
論文 参考訳(メタデータ) (2024-02-06T04:41:06Z) - Prompt Smells: An Omen for Undesirable Generative AI Outputs [4.105236597768038]
我々は、GenAIモデルの適用に関する制約に対処する上で、研究コミュニティに役立つ2つの新しい概念を提案する。
まず、GenAI出力の「望ましさ」の定義と、それに影響を与える3つの要因について述べる。
第2に、Martin Fowler氏のコードの臭いからインスピレーションを得た上で、我々は「急激な臭い」の概念と、それらがGenAI出力の嫌悪性に与える影響について提案する。
論文 参考訳(メタデータ) (2024-01-23T10:10:01Z) - A Critical Survey on Fairness Benefits of Explainable AI [10.81142163495028]
我々は,XAIの公正性に関する175の科学的論文から,7つの考古学的主張を抽出した。
クレームは曖昧で単純化され,規範的根拠が欠如している場合や,XAIの実際の能力に不十分な場合が多いことに気付きます。
我々は、XAIを倫理的パナセアではなく、アルゴリズム的公正性の多次元社会技術的課題にアプローチするための多くのツールの1つとして考えることを提案する。
論文 参考訳(メタデータ) (2023-10-15T08:17:45Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Towards Fair Knowledge Transfer for Imbalanced Domain Adaptation [61.317911756566126]
本研究では,不均衡なドメイン間学習における公平性問題に対処するTowards Fair Knowledge Transferフレームワークを提案する。
具体的には、新規なクロスドメインミックスアップ生成を利用して、ターゲット情報でマイノリティソースセットを増強し、公正性を高める。
本モデルでは,2つのベンチマークで全体の精度を20%以上向上させる。
論文 参考訳(メタデータ) (2020-10-23T06:29:09Z) - Getting Fairness Right: Towards a Toolbox for Practitioners [2.4364387374267427]
バイアスを意図せずに埋め込んで再現するAIシステムの潜在的なリスクは、マシンラーニング実践者や社会全体の注目を集めている。
本稿では,実践者が公正なAI実践を確実にするためのツールボックスのドラフトを提案する。
論文 参考訳(メタデータ) (2020-03-15T20:53:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。