論文の概要: How Large Language Models play humans in online conversations: a simulated study of the 2016 US politics on Reddit
- arxiv url: http://arxiv.org/abs/2506.21620v1
- Date: Mon, 23 Jun 2025 08:54:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-30 21:12:22.932677
- Title: How Large Language Models play humans in online conversations: a simulated study of the 2016 US politics on Reddit
- Title(参考訳): 大規模言語モデルがオンライン会話でどのように人間を演じているか: Redditで2016年のアメリカの政治をシミュレーションした
- Authors: Daniele Cirulli, Giulio Cimini, Giovanni Palermo,
- Abstract要約: 大規模言語モデル(LLM)は、最近、自然言語生成の強力なツールとして登場した。
我々は,2016年アメリカ合衆国大統領選挙におけるRedditの会話において,実世界におけるユーザ生成コンテンツの複製におけるLLMのパフォーマンスを評価した。
GPT-4は、コミュニティが支持する候補に賛成でも反対でも、現実的なコメントを作成できるが、反感よりもコンセンサスを創り出す傾向にある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have recently emerged as powerful tools for natural language generation, with applications spanning from content creation to social simulations. Their ability to mimic human interactions raises both opportunities and concerns, particularly in the context of politically relevant online discussions. In this study, we evaluate the performance of LLMs in replicating user-generated content within a real-world, divisive scenario: Reddit conversations during the 2016 US Presidential election. In particular, we conduct three different experiments, asking GPT-4 to generate comments by impersonating either real or artificial partisan users. We analyze the generated comments in terms of political alignment, sentiment, and linguistic features, comparing them against real user contributions and benchmarking against a null model. We find that GPT-4 is able to produce realistic comments, both in favor of or against the candidate supported by the community, yet tending to create consensus more easily than dissent. In addition we show that real and artificial comments are well separated in a semantically embedded space, although they are indistinguishable by manual inspection. Our findings provide insights on the potential use of LLMs to sneak into online discussions, influence political debate and shape political narratives, bearing broader implications of AI-driven discourse manipulation.
- Abstract(参考訳): 大規模言語モデル(LLM)は、コンテンツ生成からソーシャルシミュレーションに至るまで、自然言語生成の強力なツールとして最近登場した。
ヒューマンインタラクションを模倣する能力は、特に政治的に関係のあるオンライン議論の文脈において、機会と関心の両方を引き起こす。
本研究では,2016年アメリカ合衆国大統領選挙におけるRedditの会話において,実世界におけるユーザ生成コンテンツの複製におけるLCMの性能を評価する。
特に、3つの異なる実験を行い、実または人工のパルチザンのユーザーを装いながら、GPT-4にコメントを生成する。
我々は、政治的アライメント、感情、言語的特徴の観点から生成されたコメントを分析し、実際のユーザのコントリビューションと比較し、nullモデルと比較した。
GPT-4は、コミュニティが支持する候補に賛成でも反対でも、現実的なコメントを作成できるが、反感よりもコンセンサスを創り出す傾向にある。
また,手動検査では区別できないが,実コメントと人工コメントが意味的に埋め込まれた空間で適切に分離されていることを示す。
我々の発見は、LLMがオンラインの議論に忍び込み、政治的議論に影響を与え、政治的物語を形作っている可能性についての洞察を与え、AIによる談話操作の幅広い影響を生んでいる。
関連論文リスト
- Passing the Turing Test in Political Discourse: Fine-Tuning LLMs to Mimic Polarized Social Media Comments [0.0]
本研究では、微調整された大言語モデル(LLM)が、偏光言説を再現し増幅できる範囲について検討する。
Redditから抽出された政治的に課金された議論のキュレートされたデータセットを使用して、オープンソースのLCMを微調整して、コンテキスト認識とイデオロギー的に整合した応答を生成します。
結果は、パルチザンのデータに基づいてトレーニングすると、LLMは高い信頼性と挑発的なコメントを生成でき、しばしば人間によって書かれたものと区別できないことを示唆している。
論文 参考訳(メタデータ) (2025-06-17T15:41:26Z) - Incivility and Rigidity: The Risks of Fine-Tuning LLMs for Political Argumentation [11.255011967393838]
Twitter(現在のX)やRedditなどのプラットフォームで普及している収益性は、AIシステムを開発する上での課題となっている。
本研究では,2つの対照的な政治的議論データセットを微調整した GPT-3.5 Turbo 実験について報告する。
Redditがカスタマイズしたモデルでは、より安全だが厳格な議論が生まれ、クロスプラットフォームの微調整は毒性を増幅する。
論文 参考訳(メタデータ) (2024-11-25T15:28:11Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - LLM-POTUS Score: A Framework of Analyzing Presidential Debates with Large Language Models [33.251235538905895]
本稿では,大規模言語モデルを用いた大統領討論のパフォーマンス評価手法を提案する。
本研究では, 候補者の「政策, ペルソナ, パーソナ, パースペクティブ」(3P)と, 4つの主要オーディエンスグループの「関心, イデオロギー, アイデンティティ」とどのように共鳴するかを分析する枠組みを提案する。
提案手法では,LLM-POTUSスコアを生成するために,大規模な言語モデルを用いる。
論文 参考訳(メタデータ) (2024-09-12T15:40:45Z) - Representation Bias in Political Sample Simulations with Large Language Models [54.48283690603358]
本研究は,大規模言語モデルを用いた政治サンプルのシミュレーションにおけるバイアスの同定と定量化を目的とする。
GPT-3.5-Turboモデルを用いて、米国選挙研究、ドイツ縦割り選挙研究、ズオビアオデータセット、中国家族パネル研究のデータを活用する。
論文 参考訳(メタデータ) (2024-07-16T05:52:26Z) - How Well Can LLMs Echo Us? Evaluating AI Chatbots' Role-Play Ability with ECHO [55.25989137825992]
チューリングテストに触発された評価フレームワークECHOを紹介する。
この枠組みは、人間と機械が生成した反応を区別するために、対象個人の知名度に係わる。
基礎モデルとして GPT-3.5 と GPT-4 の3つのロールプレイング LLM をECHO を用いて評価した。
論文 参考訳(メタデータ) (2024-04-22T08:00:51Z) - Political Compass or Spinning Arrow? Towards More Meaningful Evaluations for Values and Opinions in Large Language Models [61.45529177682614]
我々は,大規模言語モデルにおける価値と意見の制約評価パラダイムに挑戦する。
強制されない場合、モデルが実質的に異なる答えを与えることを示す。
我々はこれらの知見をLLMの価値と意見を評価するための推奨とオープンな課題に抽出する。
論文 参考訳(メタデータ) (2024-02-26T18:00:49Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - Demonstrations of the Potential of AI-based Political Issue Polling [0.0]
そこで我々は,ChatGPTから人間ライクなサーベイ応答を抽出するための迅速なエンジニアリング手法を開発した。
我々は大規模な実験を行い、人間の調査よりもはるかに低コストで何千ものシミュレーションされた応答を問い合わせる。
ChatGPTは,様々な政策問題について,世論の平均レベルと分布の両方を予測するのに有効である。
しかし、人口レベルでの違いを予想することは成功していない。
論文 参考訳(メタデータ) (2023-07-10T12:17:15Z) - Natural Language Decompositions of Implicit Content Enable Better Text Representations [52.992875653864076]
本稿では,暗黙的に伝達されたコンテンツを明示的に考慮したテキスト分析手法を提案する。
我々は大きな言語モデルを用いて、観察されたテキストと推論的に関係する命題の集合を生成する。
本研究は,NLPにおいて,文字のみではなく,観察された言語の背景にある意味をモデル化することが重要であることを示唆する。
論文 参考訳(メタデータ) (2023-05-23T23:45:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。