論文の概要: From Melting Pots to Misrepresentations: Exploring Harms in Generative AI
- arxiv url: http://arxiv.org/abs/2403.10776v1
- Date: Sat, 16 Mar 2024 02:29:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-19 21:54:53.879523
- Title: From Melting Pots to Misrepresentations: Exploring Harms in Generative AI
- Title(参考訳): ポットの融解から表現の誤りへ - ジェネレーティブAIのハームを探る
- Authors: Sanjana Gautam, Pranav Narayanan Venkit, Sourojit Ghosh,
- Abstract要約: GeminiやGPTといった先進的な世代モデルにおける差別傾向に関する懸念が続いている。
メディア表現の多様化を求める声が広まってはいるものの、人種や民族の少数派は、AIの文脈内で永続的な歪曲、ステレオタイピング、無視に直面し続けている。
- 参考スコア(独自算出の注目度): 3.167924351428519
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: With the widespread adoption of advanced generative models such as Gemini and GPT, there has been a notable increase in the incorporation of such models into sociotechnical systems, categorized under AI-as-a-Service (AIaaS). Despite their versatility across diverse sectors, concerns persist regarding discriminatory tendencies within these models, particularly favoring selected `majority' demographics across various sociodemographic dimensions. Despite widespread calls for diversification of media representations, marginalized racial and ethnic groups continue to face persistent distortion, stereotyping, and neglect within the AIaaS context. In this work, we provide a critical summary of the state of research in the context of social harms to lead the conversation to focus on their implications. We also present open-ended research questions, guided by our discussion, to help define future research pathways.
- Abstract(参考訳): GeminiやGPTといった先進的な生成モデルの普及に伴い、AI-as-a-Service(AIaaS)に分類される社会技術システムへのモデルの導入が顕著に増加した。
多様な分野にまたがる多角性にもかかわらず、これらのモデルにおける差別的傾向に関する懸念は続き、特に様々な社会デミノグラフィー次元で選択された「多数」人口層を好んでいる。
メディア表現の多様化を求める声が広まってはいるものの、人種や民族の少数派は、AIaaSの文脈の中で永続的な歪曲、ステレオタイピング、無視に直面し続けている。
本研究は,社会的危害の文脈における研究状況の批判的要約を提供し,会話の意義に焦点をあてる。
また、今後の研究経路の定義を支援するため、議論に導かれたオープンエンドな研究課題も提示する。
関連論文リスト
- On the Challenges and Opportunities in Generative AI [135.2754367149689]
現在の大規模生成AIモデルは、ドメイン間で広く採用されるのを妨げるいくつかの基本的な問題に十分対応していない、と我々は主張する。
本研究は、現代の生成型AIパラダイムにおける重要な未解決課題を特定し、その能力、汎用性、信頼性をさらに向上するために取り組まなければならない。
論文 参考訳(メタデータ) (2024-02-28T15:19:33Z) - Language Agents for Detecting Implicit Stereotypes in Text-to-image
Models at Scale [45.64096601242646]
テキスト・ツー・イメージモデルにおけるステレオタイプ検出に適した新しいエージェントアーキテクチャを提案する。
複数のオープンテキストデータセットに基づいたステレオタイプ関連ベンチマークを構築した。
これらのモデルは、個人的特性に関する特定のプロンプトに関して、深刻なステレオタイプを示すことが多い。
論文 参考訳(メタデータ) (2023-10-18T08:16:29Z) - Evaluating Machine Perception of Indigeneity: An Analysis of ChatGPT's
Perceptions of Indigenous Roles in Diverse Scenarios [0.0]
この研究は、テクノロジが社会コンピューティングにおける不均一性に関連する社会的バイアスをどのように知覚し、潜在的に増幅するかについて、ユニークな視点を提供する。
この発見は、臨界コンピューティングにおける不均一性の広範な意味に関する洞察を与える。
論文 参考訳(メタデータ) (2023-10-13T16:46:23Z) - Survey of Social Bias in Vision-Language Models [65.44579542312489]
調査の目的は、NLP、CV、VLをまたいだ事前学習モデルにおける社会バイアス研究の類似点と相違点について、研究者に高いレベルの洞察を提供することである。
ここで提示された発見とレコメンデーションはMLコミュニティの利益となり、公平でバイアスのないAIモデルの開発を促進する。
論文 参考訳(メタデータ) (2023-09-24T15:34:56Z) - Bias and Fairness in Large Language Models: A Survey [76.65471160523444]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Should ChatGPT be Biased? Challenges and Risks of Bias in Large Language
Models [11.323961700172175]
本稿では,ChatGPTのような大規模言語モデルにおけるバイアスに関連する課題とリスクについて考察する。
我々は、トレーニングデータの性質、モデル仕様、アルゴリズム制約、製品設計、ポリシー決定など、バイアスの起源について論じる。
私たちは、言語モデルにおけるバイアスを特定し、定量化し、緩和するための現在のアプローチをレビューし、より公平で透明で責任あるAIシステムを開発するための、多分野の協力的な取り組みの必要性を強調します。
論文 参考訳(メタデータ) (2023-04-07T17:14:00Z) - Stable Bias: Analyzing Societal Representations in Diffusion Models [72.27121528451528]
本稿では,テキスト・ツー・イメージ(TTI)システムにおける社会的バイアスを探索する新しい手法を提案する。
我々のアプローチは、プロンプト内の性別や民族のマーカーを列挙して生成された画像の変動を特徴づけることに依存している。
我々はこの手法を利用して3つのTTIシステムによって生成された画像を分析し、そのアウトプットが米国の労働人口層と相関しているのに対して、彼らは常に異なる範囲において、限界化されたアイデンティティを低く表現している。
論文 参考訳(メタデータ) (2023-03-20T19:32:49Z) - A Survey of Explainable AI in Deep Visual Modeling: Methods and Metrics [24.86176236641865]
我々は、ディープビジュアルモデルを解釈するための方法とメトリクスに焦点を当てたExplainable AIの最初の調査を示す。
最先端技術に沿った目覚ましい貢献をカバーし、既存の技術に関する分類学的組織を提供するだけでなく、さまざまな評価指標を発掘する。
論文 参考訳(メタデータ) (2023-01-31T06:49:42Z) - Data Representativeness in Accessibility Datasets: A Meta-Analysis [7.6597163467929805]
障害のある人と高齢者が作成したデータセットをレビューする。
アクセシビリティデータセットは様々な年齢を表すが、性別と人種の差がある。
われわれの努力が、AIに注入されたシステムに、余分なコミュニティをもっと取り入れる可能性の空間を広げることを願っている。
論文 参考訳(メタデータ) (2022-07-16T23:32:19Z) - Didn't see that coming: a survey on non-verbal social human behavior
forecasting [47.99589136455976]
近年,非言語的社会的行動予測が研究コミュニティの関心を集めている。
人間とロボットの相互作用や社会的に認識された人間のモーション生成への直接的な応用は、非常に魅力的な分野である。
本稿では,複数の対話エージェントに対する行動予測問題を,社会的信号予測と人間の動作予測の分野の統合を目的とした汎用的な方法で定義する。
論文 参考訳(メタデータ) (2022-03-04T18:25:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。