論文の概要: From Moderation to Mediation: Can LLMs Serve as Mediators in Online Flame Wars?
- arxiv url: http://arxiv.org/abs/2512.03005v1
- Date: Tue, 02 Dec 2025 18:31:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-03 21:04:46.00528
- Title: From Moderation to Mediation: Can LLMs Serve as Mediators in Online Flame Wars?
- Title(参考訳): モデレーションからメディエーションへ:LLMはオンラインフレーム戦争でメディエーターとして生き残れるか?
- Authors: Dawei Li, Abdullah Alnaibari, Arslan Bisharat, Manny Sandoval, Deborah Hall, Yasin Silva, Huan Liu,
- Abstract要約: 大規模言語モデル(LLM)は、優れたアプリケーションのためのAIの新しい可能性を開いた。
この研究は、LLMが有害なコンテンツを検出するモデレーターとして機能するかどうかを探求するが、オンラインの紛争を理解してエスカレートする仲介者として機能する。
LLMは会話の公平さと感情のダイナミクスを評価し、ステアリングでは共感的で非エスカレートなメッセージを生成する。
- 参考スコア(独自算出の注目度): 7.926773786209838
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid advancement of large language models (LLMs) has opened new possibilities for AI for good applications. As LLMs increasingly mediate online communication, their potential to foster empathy and constructive dialogue becomes an important frontier for responsible AI research. This work explores whether LLMs can serve not only as moderators that detect harmful content, but as mediators capable of understanding and de-escalating online conflicts. Our framework decomposes mediation into two subtasks: judgment, where an LLM evaluates the fairness and emotional dynamics of a conversation, and steering, where it generates empathetic, de-escalatory messages to guide participants toward resolution. To assess mediation quality, we construct a large Reddit-based dataset and propose a multi-stage evaluation pipeline combining principle-based scoring, user simulation, and human comparison. Experiments show that API-based models outperform open-source counterparts in both reasoning and intervention alignment when doing mediation. Our findings highlight both the promise and limitations of current LLMs as emerging agents for online social mediation.
- Abstract(参考訳): 大規模言語モデル(LLM)の急速な進歩は、優れたアプリケーションのためのAIの新しい可能性を開いた。
LLMがますますオンラインコミュニケーションを仲介するにつれて、共感と構築的な対話を促進する能力は、責任あるAI研究にとって重要なフロンティアとなる。
この研究は、LSMが有害なコンテンツを検出するモデレーターとして機能するだけでなく、オンラインの紛争を理解してエスカレートする仲介者として機能するかどうかを探求する。
LLMは会話の公平さと感情のダイナミクスを評価し、ステアリングでは参加者を解決へと導くために共感的で非エスカレーションなメッセージを生成する。
メディエーションの質を評価するため,大規模なRedditベースのデータセットを構築し,原理に基づくスコアリング,ユーザシミュレーション,人間比較を組み合わせた多段階評価パイプラインを提案する。
実験によると、APIベースのモデルは、仲介を行う際の推論と介入アライメントの両方において、オープンソースモデルを上回っている。
本研究は,オンライン・ソーシャル・メディエーションの新たなエージェントとして,現在のLCMの約束と限界を浮き彫りにしている。
関連論文リスト
- Can LLMs Simulate Social Media Engagement? A Study on Action-Guided Response Generation [51.44040615856536]
本稿では、行動誘導応答生成によるソーシャルメディアのエンゲージメントをシミュレートする大規模言語モデルの能力について分析する。
GPT-4o-mini,O1-mini,DeepSeek-R1をソーシャルメディアエンゲージメントシミュレーションで評価した。
論文 参考訳(メタデータ) (2025-02-17T17:43:08Z) - NewsInterview: a Dataset and a Playground to Evaluate LLMs' Ground Gap via Informational Interviews [65.35458530702442]
我々はジャーナリストのインタビューに焦点をあて、コミュニケーションの基盤と豊富なデータに富んだドメインに焦点をあてる。
我々はNPRとCNNから4万人の2人によるインフォメーションインタビューのデータセットをキュレートする。
LLMは、人間のインタビュアーよりも、認識を使い、より高いレベルの質問に目を向ける可能性がはるかに低い。
論文 参考訳(メタデータ) (2024-11-21T01:37:38Z) - Engagement-Driven Content Generation with Large Language Models [8.049552839071918]
大規模言語モデル(LLM)は1対1の相互作用において重要な説得力を示す。
相互接続されたユーザーと複雑な意見のダイナミクスがユニークな課題を引き起こすソーシャルネットワークにおける彼らの影響力は、いまだ過小評価されている。
本稿では,emphCan LLMがソーシャルネットワーク上でユーザエンゲージメントを最大化する有意義なコンテンツを生成するかという研究課題に対処する。
論文 参考訳(メタデータ) (2024-11-20T10:40:08Z) - Robots in the Middle: Evaluating LLMs in Dispute Resolution [0.0]
大規模言語モデル(LLM)が紛争の会話を分析し、適切な介入タイプを選択し、適切な介入メッセージを生成することができるかどうかを検討する。
我々の結果は、オンライン紛争解決(ODR)プラットフォームにAIを統合する可能性を示している。
論文 参考訳(メタデータ) (2024-10-09T16:51:10Z) - Automated test generation to evaluate tool-augmented LLMs as conversational AI agents [0.27309692684728615]
対話型AIエージェントを評価するテスト生成パイプラインを提案する。
当社のフレームワークでは,ユーザ定義の手順に基づく多種多様なテストを生成するためにLLMを使用している。
ツール拡張LDMは単一のインタラクションでよく機能するが、完全な会話を扱うのに苦労することが多い。
論文 参考訳(メタデータ) (2024-09-24T09:57:43Z) - Feedback Loops With Language Models Drive In-Context Reward Hacking [78.9830398771605]
フィードバックループがコンテキスト内報酬ハッキング(ICRH)を引き起こす可能性があることを示す。
ICRHに繋がる2つのプロセス、すなわちアウトプット・リファインメントとポリシー・リファインメントを同定し研究する。
AI開発が加速するにつれて、フィードバックループの効果が増大する。
論文 参考訳(メタデータ) (2024-02-09T18:59:29Z) - Zero-Shot Goal-Directed Dialogue via RL on Imagined Conversations [70.7884839812069]
大規模言語モデル(LLM)は、多くの自然言語タスクに対する強力で一般的な解決策として登場した。
しかしながら、言語生成の最も重要なアプリケーションの多くは対話的であり、エージェントは望ましい結果に達するために相手と話し合わなければならない。
本研究では,そのような目標指向対話に対して,RLでLLMを適応させる新しい手法について検討する。
論文 参考訳(メタデータ) (2023-11-09T18:45:16Z) - Harnessing the Power of LLMs: Evaluating Human-AI Text Co-Creation
through the Lens of News Headline Generation [58.31430028519306]
本研究は, LLMを書き込みに最も有効に活用する方法と, これらのモデルとのインタラクションが, 書き込みプロセスにおけるオーナシップや信頼感にどのように影響するかを考察する。
LLMだけで十分なニュースの見出しを生成することができるが、平均すると、望ましくないモデルのアウトプットを修正するには人間による制御が必要である。
論文 参考訳(メタデータ) (2023-10-16T15:11:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。