論文の概要: Artificial Intelligence and Civil Discourse: How LLMs Moderate Climate Change Conversations
- arxiv url: http://arxiv.org/abs/2506.12077v1
- Date: Sat, 07 Jun 2025 03:32:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:45.001257
- Title: Artificial Intelligence and Civil Discourse: How LLMs Moderate Climate Change Conversations
- Title(参考訳): 人工知能と民話 - LLMが気候変動をいかに緩和するか
- Authors: Wenlu Fan, Wentao Xu,
- Abstract要約: 大規模言語モデル(LLM)は、オンラインプラットフォームやデジタル通信空間に統合されつつある。
本研究は,LLMが自然に温暖な気候変化の会話を,それぞれのコミュニケーション行動を通じてどのように行うかを検討する。
- 参考スコア(独自算出の注目度): 2.570568710751949
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As large language models (LLMs) become increasingly integrated into online platforms and digital communication spaces, their potential to influence public discourse - particularly in contentious areas like climate change - requires systematic investigation. This study examines how LLMs naturally moderate climate change conversations through their distinct communicative behaviors. We conduct a comparative analysis of conversations between LLMs and human users on social media platforms, using five advanced models: three open-source LLMs (Gemma, Llama 3, and Llama 3.3) and two commercial systems (GPT-4o by OpenAI and Claude 3.5 by Anthropic). Through sentiment analysis, we assess the emotional characteristics of responses from both LLMs and humans. The results reveal two key mechanisms through which LLMs moderate discourse: first, LLMs consistently display emotional neutrality, showing far less polarized sentiment than human users. Second, LLMs maintain lower emotional intensity across contexts, creating a stabilizing effect in conversations. These findings suggest that LLMs possess inherent moderating capacities that could improve the quality of public discourse on controversial topics. This research enhances our understanding of how AI might support more civil and constructive climate change discussions and informs the design of AI-assisted communication tools.
- Abstract(参考訳): 大規模言語モデル(LLM)がオンラインプラットフォームやデジタルコミュニケーション空間にますます統合されるにつれて、公共の言論(特に気候変動のような論争の多い地域で)に影響を与える可能性には、体系的な調査が必要である。
本研究は,LLMが自然に温暖な気候変化の会話を,それぞれのコミュニケーション行動を通じてどのように行うかを検討する。
ソーシャルメディアプラットフォーム上でのLLMと人間ユーザ間の会話の比較分析を,オープンソースのLLM(Gemma,Llama 3,Llama 3.3)と商用システム(OpenAIのGPT-4o,AnthropicのClaude 3.5)の5つのモデルを用いて行った。
感情分析を通じて,LLMと人間の両方からの反応の感情的特性を評価する。
まず、LLMは感情中立性を常に示し、人間のユーザよりも偏極感がはるかに少ない。
第2に、LLMは文脈全体の感情強度を低く保ち、会話の安定化効果を生み出す。
以上の結果から, LLMは, 議論の的となっている話題の公開談話の質を向上させるために, 本来のモデレーション能力を持っていることが示唆された。
この研究は、AIがより文明的で建設的な気候変動に関する議論をどのようにサポートするかについての理解を深め、AI支援コミュニケーションツールの設計を通知する。
関連論文リスト
- CliME: Evaluating Multimodal Climate Discourse on Social Media and the Climate Alignment Quotient (CAQ) [14.065907685322097]
CliMEは、TwitterとRedditの2579の投稿からなる、同種のマルチモーダルデータセットである。
このベンチマークはユーモラスなミームと懐疑的な投稿の多様なコレクションを特徴とし、これらのフォーマットが複雑な問題を、世論や政策に関する議論を形作るような、バイラルな物語にどのように蒸留するかを捉えている。
本稿では,5つの異なる次元(Articulation, Evidence, Resonance, transition, specificity)からなる新しい尺度であるClimate Alignment Quotient(CAQ)を紹介する。
以上の結果から,ほとんどのLCMは批判と正義において比較的良好に機能するが,アクティビリティーの軸では常に性能が劣っていることが示唆された。
論文 参考訳(メタデータ) (2025-04-04T20:01:00Z) - Can (A)I Change Your Mind? [0.6990493129893112]
研究は200人の参加者とともにヘブライ語で実施され、議論を呼んでいる市民政策のトピックに対するLLMと人間インターロケーターの説得効果を評価した。
以上の結果から,LLMとヒトの視点も同様に採用され,全ての条件において有意な意見の変化が認められた。
これらの知見は, LLMをベースとしたエージェントが, 様々なソースや設定にまたがる堅牢な説得力を示し, 世論形成への潜在的影響を浮き彫りにした。
論文 参考訳(メタデータ) (2025-03-03T18:59:54Z) - From Personas to Talks: Revisiting the Impact of Personas on LLM-Synthesized Emotional Support Conversations [19.67703146838264]
大規模言語モデル(LLM)は感情的サポートの会話の世代に革命をもたらした。
本稿では,感情的支援会話の創出におけるペルソナの役割について考察する。
論文 参考訳(メタデータ) (2025-02-17T05:24:30Z) - NewsInterview: a Dataset and a Playground to Evaluate LLMs' Ground Gap via Informational Interviews [65.35458530702442]
我々はジャーナリストのインタビューに焦点をあて、コミュニケーションの基盤と豊富なデータに富んだドメインに焦点をあてる。
我々はNPRとCNNから4万人の2人によるインフォメーションインタビューのデータセットをキュレートする。
LLMは、人間のインタビュアーよりも、認識を使い、より高いレベルの質問に目を向ける可能性がはるかに低い。
論文 参考訳(メタデータ) (2024-11-21T01:37:38Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Think Before You Speak: Cultivating Communication Skills of Large Language Models via Inner Monologue [73.69510478736483]
大規模言語モデル(LLM)は、流動的で一貫性があり多様な応答を生成する。
しかし、それらは重要な能力、コミュニケーションスキルを欠いている。
本稿は,内的モノローグによるLLMのコミュニケーション能力向上を目的としている。
実験の結果,提案したCSIM戦略はバックボーンモデルを改善し,ベースラインよりも優れていた。
論文 参考訳(メタデータ) (2023-11-13T16:19:42Z) - Emotionally Numb or Empathetic? Evaluating How LLMs Feel Using EmotionBench [83.41621219298489]
心理学からの感情評価理論を用いて,Large Language Models (LLMs) の人為的能力を評価する。
我々は、研究の中心となる8つの感情を引き出すのに有効な400以上の状況を含むデータセットを収集した。
我々は世界中の1200人以上の被験者を対象に人間による評価を行った。
論文 参考訳(メタデータ) (2023-08-07T15:18:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。