論文の概要: Large Language Models can impersonate politicians and other public figures
- arxiv url: http://arxiv.org/abs/2407.12855v1
- Date: Tue, 9 Jul 2024 11:16:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 08:28:07.040558
- Title: Large Language Models can impersonate politicians and other public figures
- Title(参考訳): 大規模言語モデルは政治家や他の公的な人物を偽装できる
- Authors: Steffen Herbold, Alexander Trautsch, Zlata Kikteva, Annette Hautli-Janisz,
- Abstract要約: 大規模言語モデル(LLM)のような現代のAI技術は、メイクアップコンテンツで公開情報領域を汚染する可能性がある。
本稿では,英国社会の横断的な研究結果を紹介する。
LLMは、英国で放送された政治討論プログラムの一部である議論の質問に対する応答を生成することができる。
- 参考スコア(独自算出の注目度): 47.2573979612036
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern AI technology like Large language models (LLMs) has the potential to pollute the public information sphere with made-up content, which poses a significant threat to the cohesion of societies at large. A wide range of research has shown that LLMs are capable of generating text of impressive quality, including persuasive political speech, text with a pre-defined style, and role-specific content. But there is a crucial gap in the literature: We lack large-scale and systematic studies of how capable LLMs are in impersonating political and societal representatives and how the general public judges these impersonations in terms of authenticity, relevance and coherence. We present the results of a study based on a cross-section of British society that shows that LLMs are able to generate responses to debate questions that were part of a broadcast political debate programme in the UK. The impersonated responses are judged to be more authentic and relevant than the original responses given by people who were impersonated. This shows two things: (1) LLMs can be made to contribute meaningfully to the public political debate and (2) there is a dire need to inform the general public of the potential harm this can have on society.
- Abstract(参考訳): 大規模言語モデル(LLM)のような現代のAI技術は、公開情報領域をメイクアップコンテンツで汚染する可能性があり、社会全体の結束に重大な脅威をもたらす。
幅広い研究により、LLMは説得力のある政治的スピーチ、事前に定義されたスタイルのテキスト、役割固有のコンテンツなど、印象的な品質のテキストを生成することができることが示されている。
我々は、LLMが政治的、社会的な代表者にとっていかに有能であるか、そして一般大衆がこれらの偽装を、真正性、関連性、一貫性の観点からどのように判断するかについて、大規模かつ体系的な研究を欠いている。
本研究は、イギリス社会の横断的なセクションに基づく研究結果であり、イギリスにおける放送政治討論プログラムの一部である議論に対する回答をLLMが生成可能であることを示すものである。
偽装された反応は、偽装された人々の本来の反応よりも真正かつ関連性が高いと判断される。
1) LLM は公共の政治討論に有意義な貢献をしうること,(2) 社会に与えうる潜在的な害について一般大衆に知らせる必要があること,である。
関連論文リスト
- Assessing Political Bias in Large Language Models [0.624709220163167]
我々は、ドイツの有権者の視点から、欧州連合(EU)内の政治問題に関するオープンソースのLarge Language Models(LLMs)の政治的バイアスを評価する。
Llama3-70Bのような大型モデルは、左派政党とより緊密に連携する傾向にあるが、小さなモデルは中立であることが多い。
論文 参考訳(メタデータ) (2024-05-17T15:30:18Z) - Can LLMs Help Predict Elections? (Counter)Evidence from the World's Largest Democracy [3.0915192911449796]
ソーシャルメディアが世論の形成にどのように影響し、政治的結果に影響を及ぼすかについての研究は、一般的な調査分野である。
本稿では,Large Language Models (LLMs) の機能を活用し,ソーシャルメディアデータを調べ,選挙結果を予測する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-13T15:13:23Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - Large Language Models: A Survey [69.72787936480394]
大規模言語モデル(LLM)は、広範囲の自然言語タスクにおける強力なパフォーマンスのために、多くの注目を集めている。
LLMの汎用言語理解と生成能力は、膨大なテキストデータに基づいて数十億のモデルのパラメータを訓練することで得られる。
論文 参考訳(メタデータ) (2024-02-09T05:37:09Z) - Generative Echo Chamber? Effects of LLM-Powered Search Systems on
Diverse Information Seeking [49.02867094432589]
大規模言語モデル(LLM)を利用した対話型検索システムは、すでに数億人の人々が利用している。
評価バイアスのあるLCMが, ユーザの視点を補強したり, 異議を申し立てたりすることで, 効果が変化するか, どのように変化するかを検討する。
論文 参考訳(メタデータ) (2024-02-08T18:14:33Z) - Vox Populi, Vox ChatGPT: Large Language Models, Education and Democracy [0.0]
本稿では,民主主義社会における大規模言語モデル(LLM)の変革的影響について考察する。
この議論は著者の本質を強調しており、理性に特有の人間の能力に根ざしている。
我々はリスクを軽減する手段として教育に重点を置くことを提唱する。
論文 参考訳(メタデータ) (2023-11-10T17:47:46Z) - Factuality Challenges in the Era of Large Language Models [113.3282633305118]
大規模言語モデル(LLM)は、誤った、誤った、あるいは誤解を招くコンテンツを生成する。
LLMは悪意のあるアプリケーションに利用することができる。
これは、ユーザーを欺く可能性があるという点で、社会に重大な課題をもたらす。
論文 参考訳(メタデータ) (2023-10-08T14:55:02Z) - Opportunities and Risks of LLMs for Scalable Deliberation with Polis [7.211025984598187]
Polisは、マシンインテリジェンスを活用して、熟考プロセスをスケールアップするプラットフォームである。
本稿では,Large Language Models (LLMs) をポリスエンゲージメントの結果の促進,調整,要約といった課題に適用する機会とリスクについて考察する。
論文 参考訳(メタデータ) (2023-06-20T22:52:51Z) - Leveraging Large Language Models for Topic Classification in the Domain
of Public Affairs [65.9077733300329]
大規模言語モデル (LLM) は公務員文書の分析を大幅に強化する可能性を秘めている。
LLMは、公共の分野など、ドメイン固有のドキュメントを処理するのに非常に役立ちます。
論文 参考訳(メタデータ) (2023-06-05T13:35:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。