論文の概要: Artificial Intelligence and Civil Discourse: How LLMs Moderate Climate Change Conversations
- arxiv url: http://arxiv.org/abs/2506.12077v1
- Date: Sat, 07 Jun 2025 03:32:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:45.001257
- Title: Artificial Intelligence and Civil Discourse: How LLMs Moderate Climate Change Conversations
- Title(参考訳): 人工知能と民話 - LLMが気候変動をいかに緩和するか
- Authors: Wenlu Fan, Wentao Xu,
- Abstract要約: 大規模言語モデル(LLM)は、オンラインプラットフォームやデジタル通信空間に統合されつつある。
本研究は,LLMが自然に温暖な気候変化の会話を,それぞれのコミュニケーション行動を通じてどのように行うかを検討する。
- 参考スコア(独自算出の注目度): 2.570568710751949
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As large language models (LLMs) become increasingly integrated into online platforms and digital communication spaces, their potential to influence public discourse - particularly in contentious areas like climate change - requires systematic investigation. This study examines how LLMs naturally moderate climate change conversations through their distinct communicative behaviors. We conduct a comparative analysis of conversations between LLMs and human users on social media platforms, using five advanced models: three open-source LLMs (Gemma, Llama 3, and Llama 3.3) and two commercial systems (GPT-4o by OpenAI and Claude 3.5 by Anthropic). Through sentiment analysis, we assess the emotional characteristics of responses from both LLMs and humans. The results reveal two key mechanisms through which LLMs moderate discourse: first, LLMs consistently display emotional neutrality, showing far less polarized sentiment than human users. Second, LLMs maintain lower emotional intensity across contexts, creating a stabilizing effect in conversations. These findings suggest that LLMs possess inherent moderating capacities that could improve the quality of public discourse on controversial topics. This research enhances our understanding of how AI might support more civil and constructive climate change discussions and informs the design of AI-assisted communication tools.
- Abstract(参考訳): 大規模言語モデル(LLM)がオンラインプラットフォームやデジタルコミュニケーション空間にますます統合されるにつれて、公共の言論(特に気候変動のような論争の多い地域で)に影響を与える可能性には、体系的な調査が必要である。
本研究は,LLMが自然に温暖な気候変化の会話を,それぞれのコミュニケーション行動を通じてどのように行うかを検討する。
ソーシャルメディアプラットフォーム上でのLLMと人間ユーザ間の会話の比較分析を,オープンソースのLLM(Gemma,Llama 3,Llama 3.3)と商用システム(OpenAIのGPT-4o,AnthropicのClaude 3.5)の5つのモデルを用いて行った。
感情分析を通じて,LLMと人間の両方からの反応の感情的特性を評価する。
まず、LLMは感情中立性を常に示し、人間のユーザよりも偏極感がはるかに少ない。
第2に、LLMは文脈全体の感情強度を低く保ち、会話の安定化効果を生み出す。
以上の結果から, LLMは, 議論の的となっている話題の公開談話の質を向上させるために, 本来のモデレーション能力を持っていることが示唆された。
この研究は、AIがより文明的で建設的な気候変動に関する議論をどのようにサポートするかについての理解を深め、AI支援コミュニケーションツールの設計を通知する。
関連論文リスト
- Passing the Turing Test in Political Discourse: Fine-Tuning LLMs to Mimic Polarized Social Media Comments [0.0]
本研究では、微調整された大言語モデル(LLM)が、偏光言説を再現し増幅できる範囲について検討する。
Redditから抽出された政治的に課金された議論のキュレートされたデータセットを使用して、オープンソースのLCMを微調整して、コンテキスト認識とイデオロギー的に整合した応答を生成します。
結果は、パルチザンのデータに基づいてトレーニングすると、LLMは高い信頼性と挑発的なコメントを生成でき、しばしば人間によって書かれたものと区別できないことを示唆している。
論文 参考訳(メタデータ) (2025-06-17T15:41:26Z) - Arbiters of Ambivalence: Challenges of Using LLMs in No-Consensus Tasks [52.098988739649705]
本研究では, LLMのバイアスと限界について, 応答生成器, 判定器, 討論器の3つの役割について検討した。
我々は、様々な先行的曖昧なシナリオを含む例をキュレートすることで、合意なしのベンチマークを開発する。
以上の結果から, LLMは, オープンエンドの回答を生成する際に, 曖昧な評価を行うことができる一方で, 審査員や討論者として採用する場合は, 合意なしのトピックにスタンスを取る傾向が示唆された。
論文 参考訳(メタデータ) (2025-05-28T01:31:54Z) - CliME: Evaluating Multimodal Climate Discourse on Social Media and the Climate Alignment Quotient (CAQ) [14.065907685322097]
CliMEは、TwitterとRedditの2579の投稿からなる、同種のマルチモーダルデータセットである。
このベンチマークはユーモラスなミームと懐疑的な投稿の多様なコレクションを特徴とし、これらのフォーマットが複雑な問題を、世論や政策に関する議論を形作るような、バイラルな物語にどのように蒸留するかを捉えている。
本稿では,5つの異なる次元(Articulation, Evidence, Resonance, transition, specificity)からなる新しい尺度であるClimate Alignment Quotient(CAQ)を紹介する。
以上の結果から,ほとんどのLCMは批判と正義において比較的良好に機能するが,アクティビリティーの軸では常に性能が劣っていることが示唆された。
論文 参考訳(メタデータ) (2025-04-04T20:01:00Z) - Can (A)I Change Your Mind? [0.6990493129893112]
研究は200人の参加者とともにヘブライ語で実施され、議論を呼んでいる市民政策のトピックに対するLLMと人間インターロケーターの説得効果を評価した。
以上の結果から,LLMとヒトの視点も同様に採用され,全ての条件において有意な意見の変化が認められた。
これらの知見は, LLMをベースとしたエージェントが, 様々なソースや設定にまたがる堅牢な説得力を示し, 世論形成への潜在的影響を浮き彫りにした。
論文 参考訳(メタデータ) (2025-03-03T18:59:54Z) - From Personas to Talks: Revisiting the Impact of Personas on LLM-Synthesized Emotional Support Conversations [19.67703146838264]
大規模言語モデル(LLM)は感情的サポートの会話の世代に革命をもたらした。
本稿では,感情的支援会話の創出におけるペルソナの役割について考察する。
論文 参考訳(メタデータ) (2025-02-17T05:24:30Z) - NewsInterview: a Dataset and a Playground to Evaluate LLMs' Ground Gap via Informational Interviews [65.35458530702442]
我々はジャーナリストのインタビューに焦点をあて、コミュニケーションの基盤と豊富なデータに富んだドメインに焦点をあてる。
我々はNPRとCNNから4万人の2人によるインフォメーションインタビューのデータセットをキュレートする。
LLMは、人間のインタビュアーよりも、認識を使い、より高いレベルの質問に目を向ける可能性がはるかに低い。
論文 参考訳(メタデータ) (2024-11-21T01:37:38Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Generative Echo Chamber? Effects of LLM-Powered Search Systems on
Diverse Information Seeking [49.02867094432589]
大規模言語モデル(LLM)を利用した対話型検索システムは、すでに数億人の人々が利用している。
評価バイアスのあるLCMが, ユーザの視点を補強したり, 異議を申し立てたりすることで, 効果が変化するか, どのように変化するかを検討する。
論文 参考訳(メタデータ) (2024-02-08T18:14:33Z) - Sibyl: Empowering Empathetic Dialogue Generation in Large Language Models via Sensible and Visionary Commonsense Inference [40.96005200292604]
感性とビジョンコモンセンス知識(Sibyl)という革新的な枠組みを提示する。
それは、より共感的な反応を引き出すことを目的として、すぐに続く対話に集中するように設計されている。
実験結果から,LLMにコモンセンス知識を習得するためのパラダイムを取り入れることで,その応答の質を総合的に向上することが示された。
論文 参考訳(メタデータ) (2023-11-26T14:35:23Z) - Think Before You Speak: Cultivating Communication Skills of Large Language Models via Inner Monologue [73.69510478736483]
大規模言語モデル(LLM)は、流動的で一貫性があり多様な応答を生成する。
しかし、それらは重要な能力、コミュニケーションスキルを欠いている。
本稿は,内的モノローグによるLLMのコミュニケーション能力向上を目的としている。
実験の結果,提案したCSIM戦略はバックボーンモデルを改善し,ベースラインよりも優れていた。
論文 参考訳(メタデータ) (2023-11-13T16:19:42Z) - BotChat: Evaluating LLMs' Capabilities of Having Multi-Turn Dialogues [72.65163468440434]
本報告では,人間型マルチターンチャットのための既存大規模言語モデルの予備的評価を行う。
そこで我々は,ChatSEEDに基づくマルチターン対話を発話によって生成する大規模言語モデル(LLM)を提案する。
GPT-4は優れた品質の人型多元対話を生成できるが、その性能は著しく上回っている。
論文 参考訳(メタデータ) (2023-10-20T16:53:51Z) - Emotionally Numb or Empathetic? Evaluating How LLMs Feel Using EmotionBench [83.41621219298489]
心理学からの感情評価理論を用いて,Large Language Models (LLMs) の人為的能力を評価する。
我々は、研究の中心となる8つの感情を引き出すのに有効な400以上の状況を含むデータセットを収集した。
我々は世界中の1200人以上の被験者を対象に人間による評価を行った。
論文 参考訳(メタデータ) (2023-08-07T15:18:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。