論文の概要: Hey GPT, Can You be More Racist? Analysis from Crowdsourced Attempts to Elicit Biased Content from Generative AI
- arxiv url: http://arxiv.org/abs/2410.15467v1
- Date: Sun, 20 Oct 2024 18:44:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:20:25.000913
- Title: Hey GPT, Can You be More Racist? Analysis from Crowdsourced Attempts to Elicit Biased Content from Generative AI
- Title(参考訳): ヘイ GPT, よりラシストになれるか? クラウドソーシングの試みからジェネレーティブAIからバイアスドコンテンツを排除するための分析
- Authors: Hangzhi Guo, Pranav Narayanan Venkit, Eunchae Jang, Mukund Srinath, Wenbo Zhang, Bonam Mingole, Vipul Gupta, Kush R. Varshney, S. Shyam Sundar, Amulya Yadav,
- Abstract要約: 本研究は,GenAIツールから偏りのあるアウトプットを抽出するプロンプトの設計に参加者が挑戦する大学レベルのコンペから得られた知見を提示する。
我々は、競争の提出を定量的に質的に分析し、GenAIにおける多様なバイアスと、GenAIにおけるバイアスを誘発する参加者の戦略を同定する。
- 参考スコア(独自算出の注目度): 41.96102438774773
- License:
- Abstract: The widespread adoption of large language models (LLMs) and generative AI (GenAI) tools across diverse applications has amplified the importance of addressing societal biases inherent within these technologies. While the NLP community has extensively studied LLM bias, research investigating how non-expert users perceive and interact with biases from these systems remains limited. As these technologies become increasingly prevalent, understanding this question is crucial to inform model developers in their efforts to mitigate bias. To address this gap, this work presents the findings from a university-level competition, which challenged participants to design prompts for eliciting biased outputs from GenAI tools. We quantitatively and qualitatively analyze the competition submissions and identify a diverse set of biases in GenAI and strategies employed by participants to induce bias in GenAI. Our finding provides unique insights into how non-expert users perceive and interact with biases from GenAI tools.
- Abstract(参考訳): 多様なアプリケーションにまたがる大規模言語モデル(LLM)と生成AI(GenAI)ツールの普及は、これらの技術に固有の社会的バイアスに対処することの重要性を増幅している。
NLPコミュニティはLLMバイアスを幅広く研究してきたが、非専門家がこれらのシステムのバイアスをどう認識し、どのように相互作用するかを研究する研究は限られている。
これらの技術がますます普及するにつれて、モデル開発者がバイアスを軽減するために、この疑問を理解することが不可欠です。
このギャップに対処するため、この研究は、GenAIツールから偏りのあるアウトプットを抽出するプロンプトを設計するよう、参加者に挑戦する大学レベルのコンペティションの結果を提示する。
我々は、競争の提出を定量的に質的に分析し、GenAIにおける多様なバイアスと、GenAIにおけるバイアスを誘発する参加者の戦略を同定する。
我々の発見は、非専門家がGenAIツールのバイアスをどう認識し、どのように相互作用するかに関するユニークな洞察を与えてくれる。
関連論文リスト
- Engineering Educators' Perspectives on the Impact of Generative AI in Higher Education [4.06279597585806]
本研究は, 生産型AIの活用と展望について, 工学教育者を対象にした調査から得られた知見を報告する。
我々は、GenAIの利用と快適性、GenAIに対する全体的な視点、教育、学習、研究にGenAIを使うことの課題と潜在的害について質問し、彼らの教室でのGenAIの使用と統合に対するアプローチが、GenAIの経験とそれに対する認識に影響を与えているかどうかを検討した。
論文 参考訳(メタデータ) (2025-02-01T21:29:53Z) - Exploring the Implementation of AI in Early Onset Interviews to Help Mitigate Bias [0.0]
本稿では,アーリーステージ採用面接における人工知能(AI)の適用について検討する。
結果は、AIが感情駆動バイアスを41.2%効果的に最小化することを示している。
論文 参考訳(メタデータ) (2025-01-17T00:40:35Z) - The Influencer Next Door: How Misinformation Creators Use GenAI [1.1650821883155187]
我々は、非専門家がGenAIをリミックス、再パッケージ、そして(再)コンテンツの制作に利用し、彼らの個人的ニーズや欲求に応えていることに気付きました。
我々は、これらの突発的GenAIの使用が、新しいまたは加速された誤情報障害をいかに生み出すかを分析する。
論文 参考訳(メタデータ) (2024-05-22T11:40:22Z) - Identifying and Mitigating the Security Risks of Generative AI [179.2384121957896]
本稿では,GenAIによる双対ジレンマに関するGoogleのワークショップの成果を報告する。
GenAIはまた、攻撃者が新しい攻撃を生成し、既存の攻撃のベロシティと有効性を高めるためにも使用できる。
この話題について,コミュニティの短期的,長期的目標について論じる。
論文 参考訳(メタデータ) (2023-08-28T18:51:09Z) - CBBQ: A Chinese Bias Benchmark Dataset Curated with Human-AI
Collaboration for Large Language Models [52.25049362267279]
本稿では,人的専門家と生成言語モデルによって共同で構築された100万以上の質問からなる中国語バイアスベンチマークデータセットを提案する。
データセットのテストインスタンスは、手作業による厳格な品質管理を備えた3K以上の高品質テンプレートから自動的に抽出される。
大規模な実験により、データセットがモデルバイアスを検出することの有効性が実証された。
論文 参考訳(メタデータ) (2023-06-28T14:14:44Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Fairness And Bias in Artificial Intelligence: A Brief Survey of Sources,
Impacts, And Mitigation Strategies [11.323961700172175]
この調査論文は、AIの公平性とバイアスに関する簡潔で包括的な概要を提供する。
我々は、データ、アルゴリズム、人間の決定バイアスなどのバイアス源をレビューする。
偏りのあるAIシステムの社会的影響を評価し,不平等の持続性と有害なステレオタイプの強化に着目した。
論文 参考訳(メタデータ) (2023-04-16T03:23:55Z) - Should ChatGPT be Biased? Challenges and Risks of Bias in Large Language
Models [11.323961700172175]
本稿では,ChatGPTのような大規模言語モデルにおけるバイアスに関連する課題とリスクについて考察する。
我々は、トレーニングデータの性質、モデル仕様、アルゴリズム制約、製品設計、ポリシー決定など、バイアスの起源について論じる。
私たちは、言語モデルにおけるバイアスを特定し、定量化し、緩和するための現在のアプローチをレビューし、より公平で透明で責任あるAIシステムを開発するための、多分野の協力的な取り組みの必要性を強調します。
論文 参考訳(メタデータ) (2023-04-07T17:14:00Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。