論文の概要: Exploring LGBTQ+ Bias in Generative AI Answers across Different Country and Religious Contexts
- arxiv url: http://arxiv.org/abs/2407.03473v1
- Date: Wed, 3 Jul 2024 19:38:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-08 20:00:48.303989
- Title: Exploring LGBTQ+ Bias in Generative AI Answers across Different Country and Religious Contexts
- Title(参考訳): 異なる国と宗教状況における生成的AI回答におけるLGBTQ+バイアスの探索
- Authors: Lilla Vicsek, Anna Vancsó, Mike Zajko, Judit Takacs,
- Abstract要約: ChatGPT 3.5の回答は、バードが人権を強調し、LGBTQ+の問題をもっと支持したのとは対照的に、文化的相対性を示した。
この研究は、AI応答の社会的および倫理的意味を理解することに寄与する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Previous discussions have highlighted the need for generative AI tools to become more culturally sensitive, yet often neglect the complexities of handling content about minorities, who are perceived differently across cultures and religions. Our study examined how two generative AI systems respond to homophobic statements with varying cultural and religious context information. Findings showed ChatGPT 3.5's replies exhibited cultural relativism, in contrast to Bard's, which stressed human rights and provided more support for LGBTQ+ issues. Both demonstrated significant change in responses based on contextual information provided in the prompts, suggesting that AI systems may adjust in their responses the degree and forms of support for LGBTQ+ people according to information they receive about the user's background. The study contributes to understanding the social and ethical implications of AI responses and argues that any work to make generative AI outputs more culturally diverse requires a grounding in fundamental human rights.
- Abstract(参考訳): それまでの議論は、創造的なAIツールがより文化的に敏感になる必要性を強調してきたが、しばしば、文化や宗教によって異なると認識されるマイノリティに関するコンテンツを扱う複雑さを無視している。
本研究は,2つの生成AIシステムが,文化的・宗教的文脈の異なるホモフォビックステートメントにどのように反応するかを検討した。
発見によると、ChatGPT 3.5の回答は文化的な相対主義を示しており、バードは人権を強調し、LGBTQ+の問題をもっと支持した。
どちらも、プロンプトで提供された文脈情報に基づいて、応答の著しい変化を示し、AIシステムは、ユーザのバックグラウンドに関する情報に基づいて、LGBTQ+の人々のサポートの程度と形式を、その応答で調整することができることを示唆している。
この研究は、AI反応の社会的および倫理的意味を理解することに寄与し、生成するAIの出力をより文化的に多様にするためには、基本的人権の基盤が必要であると論じている。
関連論文リスト
- Human Bias in the Face of AI: The Role of Human Judgement in AI Generated Text Evaluation [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - The Honorific Effect: Exploring the Impact of Japanese Linguistic Formalities on AI-Generated Physics Explanations [0.0]
本研究では,モーメントの保存則を説明する際に,日本語の敬意が大規模言語モデル(LLM)の応答に与える影響について検討した。
我々は、ChatGPT、Coral、Geminiのバリエーションを含む6つの最先端AIモデルの出力を14種類の名誉形式を用いて分析した。
論文 参考訳(メタデータ) (2024-07-12T11:31:00Z) - Language Model Alignment in Multilingual Trolley Problems [138.5684081822807]
Moral Machine 実験に基づいて,MultiTP と呼ばれる100以上の言語でモラルジレンマヴィグネットの言語間コーパスを開発する。
分析では、19の異なるLLMと人間の判断を一致させ、6つのモラル次元をまたいだ嗜好を捉えた。
我々は、AIシステムにおける一様道徳的推論の仮定に挑戦し、言語間のアライメントの顕著なばらつきを発見した。
論文 参考訳(メタデータ) (2024-07-02T14:02:53Z) - CIVICS: Building a Dataset for Examining Culturally-Informed Values in Large Language Models [59.22460740026037]
大規模言語モデル(LLM)の社会的・文化的変動を評価するためのデータセット「CIVICS:文化インフォームド・バリュース・インクルーシブ・コーパス・フォー・ソシエティ・インパクト」
我々は、LGBTQIの権利、社会福祉、移民、障害権利、代理など、特定の社会的に敏感なトピックに対処する、手作りの多言語プロンプトのデータセットを作成します。
論文 参考訳(メタデータ) (2024-05-22T20:19:10Z) - The PRISM Alignment Project: What Participatory, Representative and Individualised Human Feedback Reveals About the Subjective and Multicultural Alignment of Large Language Models [67.38144169029617]
PRISMは,75か国から1500人の多様な参加者を対象に,社会デマトグラフィーをマッピングし,嗜好を提示する新しいデータセットである。
PRISMは、(i)ヒトのフィードバックデータにおける地理的および人口統計学的関与、(ii)集団福祉(UKとUS)を理解するための2つの国勢調査表現サンプル、(iii)全ての評価が詳細な参加者プロファイルに関連付けられている個別化されたフィードバックに寄与する。
論文 参考訳(メタデータ) (2024-04-24T17:51:36Z) - How Culture Shapes What People Want From AI [0.0]
文化的に多様なグループの視点をAI開発に組み込む必要がある。
我々は,AIの主流となるビジョンを拡張し,再定義し,再構築することを目的とした,研究のための新しい概念的枠組みを提案する。
論文 参考訳(メタデータ) (2024-03-08T07:08:19Z) - Disentangling Perceptions of Offensiveness: Cultural and Moral
Correlates [4.857640117519813]
我々は、文化的・心理的要因が攻撃性の認知的処理において重要な役割を担っていると論じる。
攻撃性に対する認識の文化的相違が顕著である。
個人の道徳的価値観は、これらのバリエーションを形成する上で重要な役割を担っている。
論文 参考訳(メタデータ) (2023-12-11T22:12:20Z) - Not All Countries Celebrate Thanksgiving: On the Cultural Dominance in
Large Language Models [89.94270049334479]
本稿では,大規模言語モデル(LLM)における文化的優位性について述べる。
LLMは、ユーザーが非英語で尋ねるときに期待する文化とは無関係な、不適切な英語文化関連の回答を提供することが多い。
論文 参考訳(メタデータ) (2023-10-19T05:38:23Z) - An Analytics of Culture: Modeling Subjectivity, Scalability,
Contextuality, and Temporality [13.638494941763637]
文化とAIの間には双方向の関係があり、AIモデルは文化を分析するためにますます使われており、それによって文化に対する理解が形成される。
一方、これらのモデルでは、文化の表現を暗黙的に、常に正しく、暗黙的に学習する。
これにより、文化の分析にAIの使用を制限し、バイアスのような文化的な複雑な問題に関してAIの問題を引き起こす緊張が生じます。
論文 参考訳(メタデータ) (2022-11-14T15:42:27Z) - A Framework for the Computational Linguistic Analysis of Dehumanization [52.735780962665814]
我々は1986年から2015年にかけてニューヨーク・タイムズでLGBTQの人々に関する議論を分析した。
LGBTQの人々の人為的な記述は、時間とともにますます増えています。
大規模に非人間化言語を分析する能力は、メディアバイアスを自動的に検出し、理解するだけでなく、オンラインで乱用する言語にも影響を及ぼす。
論文 参考訳(メタデータ) (2020-03-06T03:02:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。