論文の概要: From Melting Pots to Misrepresentations: Exploring Harms in Generative AI
- arxiv url: http://arxiv.org/abs/2403.10776v1
- Date: Sat, 16 Mar 2024 02:29:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-19 21:54:53.879523
- Title: From Melting Pots to Misrepresentations: Exploring Harms in Generative AI
- Title(参考訳): ポットの融解から表現の誤りへ - ジェネレーティブAIのハームを探る
- Authors: Sanjana Gautam, Pranav Narayanan Venkit, Sourojit Ghosh,
- Abstract要約: GeminiやGPTといった先進的な世代モデルにおける差別傾向に関する懸念が続いている。
メディア表現の多様化を求める声が広まってはいるものの、人種や民族の少数派は、AIの文脈内で永続的な歪曲、ステレオタイピング、無視に直面し続けている。
- 参考スコア(独自算出の注目度): 3.167924351428519
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: With the widespread adoption of advanced generative models such as Gemini and GPT, there has been a notable increase in the incorporation of such models into sociotechnical systems, categorized under AI-as-a-Service (AIaaS). Despite their versatility across diverse sectors, concerns persist regarding discriminatory tendencies within these models, particularly favoring selected `majority' demographics across various sociodemographic dimensions. Despite widespread calls for diversification of media representations, marginalized racial and ethnic groups continue to face persistent distortion, stereotyping, and neglect within the AIaaS context. In this work, we provide a critical summary of the state of research in the context of social harms to lead the conversation to focus on their implications. We also present open-ended research questions, guided by our discussion, to help define future research pathways.
- Abstract(参考訳): GeminiやGPTといった先進的な生成モデルの普及に伴い、AI-as-a-Service(AIaaS)に分類される社会技術システムへのモデルの導入が顕著に増加した。
多様な分野にまたがる多角性にもかかわらず、これらのモデルにおける差別的傾向に関する懸念は続き、特に様々な社会デミノグラフィー次元で選択された「多数」人口層を好んでいる。
メディア表現の多様化を求める声が広まってはいるものの、人種や民族の少数派は、AIaaSの文脈の中で永続的な歪曲、ステレオタイピング、無視に直面し続けている。
本研究は,社会的危害の文脈における研究状況の批判的要約を提供し,会話の意義に焦点をあてる。
また、今後の研究経路の定義を支援するため、議論に導かれたオープンエンドな研究課題も提示する。
関連論文リスト
- Emergence of human-like polarization among large language model agents [61.622596148368906]
我々は、何千もの大規模言語モデルエージェントを含むネットワーク化されたシステムをシミュレートし、それらの社会的相互作用を発見し、人間のような偏極をもたらす。
人間とLLMエージェントの類似性は、社会的分極を増幅する能力に関する懸念を提起するだけでなく、それを緩和するための有効な戦略を特定するための貴重なテストベッドとして機能する可能性も持っている。
論文 参考訳(メタデータ) (2025-01-09T11:45:05Z) - A Comprehensive Framework to Operationalize Social Stereotypes for Responsible AI Evaluations [15.381034360289899]
社会的なステレオタイプは、責任あるAI介入の無数の中心にある。
生成AI評価におけるステレオタイプを運用するための統合フレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-03T19:39:48Z) - Authenticity and exclusion: social media algorithms and the dynamics of belonging in epistemic communities [0.8287206589886879]
本稿では,ソーシャルメディアプラットフォームとそのレコメンデーションアルゴリズムが,少数派の研究者の専門的視認性と機会をいかに形成するかを検討する。
まず、これらのアルゴリズムは少数派の研究者の専門的な可視性を著しく損なう。
第二に、これらの少数派グループの中では、アルゴリズムは多数派に近づき、プロの可視性を犠牲にして同化を動機付ける。
論文 参考訳(メタデータ) (2024-07-11T14:36:58Z) - The Factuality Tax of Diversity-Intervened Text-to-Image Generation: Benchmark and Fact-Augmented Intervention [61.80236015147771]
我々は多様性の介入とT2Iモデルにおける人口統計学的事実性とのトレードオフを定量化する。
DoFaiRの実験では、多様性指向の指示によって、性別や人種の異なる集団の数が増加することが明らかになった。
本研究では,歴史における世代ごとのジェンダーや人種構成について,言語化された事実情報を反映したFact-Augmented Intervention (FAI)を提案する。
論文 参考訳(メタデータ) (2024-06-29T09:09:42Z) - Quantifying the Cross-sectoral Intersecting Discrepancies within Multiple Groups Using Latent Class Analysis Towards Fairness [6.683051393349788]
のイニシアチブは、サービスやリソース、機会へのアクセスにおいて、多種多様な不平等に対処するよう促します。
健康、エネルギー、住宅など、さまざまな分野の意思決定プロセスにAIツールが適用されている。
本研究は,クロスセクタ間差分を定量化するための革新的アプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T08:10:31Z) - Recent Advances in Hate Speech Moderation: Multimodality and the Role of Large Models [52.24001776263608]
この包括的調査は、HSモデレーションの最近の歩みを掘り下げている。
大型言語モデル(LLM)と大規模マルチモーダルモデル(LMM)の急成長する役割を強調した。
研究における既存のギャップを、特に表現不足言語や文化の文脈で特定する。
論文 参考訳(メタデータ) (2024-01-30T03:51:44Z) - Language Agents for Detecting Implicit Stereotypes in Text-to-image
Models at Scale [45.64096601242646]
テキスト・ツー・イメージモデルにおけるステレオタイプ検出に適した新しいエージェントアーキテクチャを提案する。
複数のオープンテキストデータセットに基づいたステレオタイプ関連ベンチマークを構築した。
これらのモデルは、個人的特性に関する特定のプロンプトに関して、深刻なステレオタイプを示すことが多い。
論文 参考訳(メタデータ) (2023-10-18T08:16:29Z) - Survey of Social Bias in Vision-Language Models [65.44579542312489]
調査の目的は、NLP、CV、VLをまたいだ事前学習モデルにおける社会バイアス研究の類似点と相違点について、研究者に高いレベルの洞察を提供することである。
ここで提示された発見とレコメンデーションはMLコミュニティの利益となり、公平でバイアスのないAIモデルの開発を促進する。
論文 参考訳(メタデータ) (2023-09-24T15:34:56Z) - Stable Bias: Analyzing Societal Representations in Diffusion Models [72.27121528451528]
本稿では,テキスト・ツー・イメージ(TTI)システムにおける社会的バイアスを探索する新しい手法を提案する。
我々のアプローチは、プロンプト内の性別や民族のマーカーを列挙して生成された画像の変動を特徴づけることに依存している。
我々はこの手法を利用して3つのTTIシステムによって生成された画像を分析し、そのアウトプットが米国の労働人口層と相関しているのに対して、彼らは常に異なる範囲において、限界化されたアイデンティティを低く表現している。
論文 参考訳(メタデータ) (2023-03-20T19:32:49Z) - A Survey of Explainable AI in Deep Visual Modeling: Methods and Metrics [24.86176236641865]
我々は、ディープビジュアルモデルを解釈するための方法とメトリクスに焦点を当てたExplainable AIの最初の調査を示す。
最先端技術に沿った目覚ましい貢献をカバーし、既存の技術に関する分類学的組織を提供するだけでなく、さまざまな評価指標を発掘する。
論文 参考訳(メタデータ) (2023-01-31T06:49:42Z) - Didn't see that coming: a survey on non-verbal social human behavior
forecasting [47.99589136455976]
近年,非言語的社会的行動予測が研究コミュニティの関心を集めている。
人間とロボットの相互作用や社会的に認識された人間のモーション生成への直接的な応用は、非常に魅力的な分野である。
本稿では,複数の対話エージェントに対する行動予測問題を,社会的信号予測と人間の動作予測の分野の統合を目的とした汎用的な方法で定義する。
論文 参考訳(メタデータ) (2022-03-04T18:25:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。