論文の概要: Bias of AI-Generated Content: An Examination of News Produced by Large
Language Models
- arxiv url: http://arxiv.org/abs/2309.09825v1
- Date: Mon, 18 Sep 2023 14:47:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 13:02:20.135333
- Title: Bias of AI-Generated Content: An Examination of News Produced by Large
Language Models
- Title(参考訳): AI生成コンテンツのバイアス:大規模言語モデルによるニュースの検討
- Authors: Xiao Fang, Shangkun Che, Minjia Mao, Hongzhe Zhang, Ming Zhao,
Xiaohang Zhao
- Abstract要約: 大規模言語モデル(LLM)は、AIGC(AI-Generated Content)として知られる、私たちの生活を変革し、彼らが生成するコンテンツを通じて機能する可能性を持っている。
本稿では,ChatGPT や LLaMA を含む 7 つの代表的な LLM が生成する AIGC のバイアスについて検討する。
- 参考スコア(独自算出の注目度): 3.5884802399088516
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large language models (LLMs) have the potential to transform our lives and
work through the content they generate, known as AI-Generated Content (AIGC).
To harness this transformation, we need to understand the limitations of LLMs.
Here, we investigate the bias of AIGC produced by seven representative LLMs,
including ChatGPT and LLaMA. We collect news articles from The New York Times
and Reuters, both known for delivering relatively unbiased news. We then apply
each examined LLM to generate news content with headlines of these news
articles as prompts, and evaluate the gender and racial biases of the AIGC
produced by the LLM by comparing the AIGC and the original news articles. We
further analyze the gender bias of each LLM under biased prompts by adding
gender-biased messages to prompts constructed from these news headlines. Our
study reveals that the AIGC produced by each examined LLM demonstrates
substantial gender and racial biases. Moreover, the AIGC generated by each LLM
exhibits notable discrimination against females and individuals of the Black
race. Among the LLMs, the AIGC generated by ChatGPT demonstrates the lowest
level of bias, and ChatGPT is the sole model capable of declining content
generation when provided with biased prompts.
- Abstract(参考訳): 大規模言語モデル(LLM)は、AIGC(AI-Generated Content)として知られる、私たちの生活を変革し、それらが生成するコンテンツを通じて機能する可能性がある。
この変換を活用するためには,LLMの限界を理解する必要がある。
本稿では,ChatGPT や LLaMA を含む7つの代表的な LLM によるAIGC のバイアスについて検討する。
われわれはNew York TimesとReutersのニュース記事を集めている。
次に,これらのニュース記事の見出し付きニュースコンテンツをプロンプトとしてLLMに適用し,AIGCとオリジナルのニュース記事を比較して,LLMが生み出すAIGCの性別的・人種的偏見を評価する。
さらに、これらのニュースの見出しから構築されたプロンプトにジェンダーバイアス付きメッセージを追加することにより、各LDMのジェンダーバイアスをバイアス付きプロンプトで分析する。
調査の結果, LLMが生成するAIGCは, 性別や人種の偏りがかなり大きいことがわかった。
さらに、各LSMが生成するAIGCは、黒人人種の女性や個人に対する顕著な差別を示す。
LLMの中で、ChatGPTによって生成されたAIGCはバイアスの最小レベルを示し、ChatGPTはバイアス付きプロンプトが提供されるとコンテンツ生成を減少させる唯一のモデルである。
関連論文リスト
- Large Language Models Reflect the Ideology of their Creators [73.25935570218375]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
異なるLLMや言語にまたがるイデオロギー的姿勢の顕著な多様性を明らかにする。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - AI AI Bias: Large Language Models Favor Their Own Generated Content [0.1979158763744267]
大規模言語モデル (LLM) が人間によって書かれたテキストに対して LLM によって生成されたテキストに偏りがあるかどうかを検証する。
以上の結果から,LLMベースのAIがLLM生成コンテンツを好む傾向が一貫したことが明らかとなった。
これは、AIシステムが暗黙的に人間を差別し、AIエージェントに不公平な優位性を与える可能性を示唆している。
論文 参考訳(メタデータ) (2024-07-09T13:15:14Z) - Seeing Through AI's Lens: Enhancing Human Skepticism Towards LLM-Generated Fake News [0.38233569758620056]
本稿は,人間とLLMで作成する物品を個人が識別する簡単なマーカーを解明することを目的としている。
次に、情報理論とエントロピー原理に基づいて、エントロピーシフトオーサリングシグナチャ(ESAS)と呼ばれるメトリクスを考案する。
提案されたESASは、記事の著者の識別に関する関連性に基づいて、POSタグのような用語やエンティティをニュース記事にランク付けする。
論文 参考訳(メタデータ) (2024-06-20T06:02:04Z) - White Men Lead, Black Women Help? Benchmarking Language Agency Social Biases in LLMs [58.27353205269664]
社会的偏見は言語機関に現れることがある。
本稿では,言語庁バイアス評価ベンチマークを紹介する。
我々は,最近の3つのLarge Language Model(LLM)生成コンテンツにおいて,言語エージェンシーの社会的バイアスを明らかにした。
論文 参考訳(メタデータ) (2024-04-16T12:27:54Z) - Disclosure and Mitigation of Gender Bias in LLMs [64.79319733514266]
大規模言語モデル(LLM)はバイアス応答を生成することができる。
条件生成に基づく間接探索フレームワークを提案する。
LLMにおける明示的・暗黙的な性バイアスを明らかにするための3つの戦略を探求する。
論文 参考訳(メタデータ) (2024-02-17T04:48:55Z) - Large Language Models: A Survey [69.72787936480394]
大規模言語モデル(LLM)は、広範囲の自然言語タスクにおける強力なパフォーマンスのために、多くの注目を集めている。
LLMの汎用言語理解と生成能力は、膨大なテキストデータに基づいて数十億のモデルのパラメータを訓練することで得られる。
論文 参考訳(メタデータ) (2024-02-09T05:37:09Z) - Disinformation Capabilities of Large Language Models [0.564232659769944]
本稿では,現在世代の大言語モデル(LLM)の非情報化能力について述べる。
20個の偽情報物語を用いた10個のLDMの能力評価を行った。
LLMは、危険な偽情報の物語に一致する説得力のあるニュース記事を生成することができると結論付けている。
論文 参考訳(メタデータ) (2023-11-15T10:25:30Z) - Probing Explicit and Implicit Gender Bias through LLM Conditional Text
Generation [64.79319733514266]
大規模言語モデル(LLM)はバイアスと有害な応答を生成する。
本研究では,あらかじめ定義されたジェンダーフレーズやステレオタイプを必要としない条件付きテキスト生成機構を提案する。
論文 参考訳(メタデータ) (2023-11-01T05:31:46Z) - "Kelly is a Warm Person, Joseph is a Role Model": Gender Biases in
LLM-Generated Reference Letters [97.11173801187816]
大規模言語モデル(LLM)は、個人が様々な種類のコンテンツを書くのを支援する効果的なツールとして最近登場した。
本稿では, LLM 生成した参照文字の性別バイアスについて批判的に検討する。
論文 参考訳(メタデータ) (2023-10-13T16:12:57Z) - Fake News Detectors are Biased against Texts Generated by Large Language
Models [39.36284616311687]
フェイクニュースの拡散は、信頼を弱め、社会への脅威を訴える重要な課題として浮上している。
本稿では,人間の書き起こしとLLM生成の両方の誤情報を含むシナリオにおいて,偽ニュース検知器を評価するための新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-09-15T18:04:40Z) - Queer People are People First: Deconstructing Sexual Identity
Stereotypes in Large Language Models [3.974379576408554]
大規模言語モデル(LLM)は、主に最小処理のWebテキストに基づいて訓練される。
LLMはLGBTQIA+コミュニティのような、疎外されたグループに対して必然的にステレオタイプを永続させることができる。
論文 参考訳(メタデータ) (2023-06-30T19:39:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。