論文の概要: Evaluating Online Moderation Via LLM-Powered Counterfactual Simulations
- arxiv url: http://arxiv.org/abs/2511.07204v1
- Date: Mon, 10 Nov 2025 15:31:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.32681
- Title: Evaluating Online Moderation Via LLM-Powered Counterfactual Simulations
- Title(参考訳): LLMによるオンラインモデレーションの評価
- Authors: Giacomo Fidone, Lucia Passaro, Riccardo Guidotti,
- Abstract要約: エージェントベースモデリングを強化するために、LLM(Large Language Models)をうまく活用することができる。
我々は,モデレーションの介入によって有害な行動が影響される対実シミュレーションを可能にする,オンラインソーシャルネットワークのシミュレータを設計する。
我々は、OSNエージェントの心理的リアリズムとパーソナライズされたモデレーション戦略の優れた効果を明らかにする広範な実験を行う。
- 参考スコア(独自算出の注目度): 2.429376470369691
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Online Social Networks (OSNs) widely adopt content moderation to mitigate the spread of abusive and toxic discourse. Nonetheless, the real effectiveness of moderation interventions remains unclear due to the high cost of data collection and limited experimental control. The latest developments in Natural Language Processing pave the way for a new evaluation approach. Large Language Models (LLMs) can be successfully leveraged to enhance Agent-Based Modeling and simulate human-like social behavior with unprecedented degree of believability. Yet, existing tools do not support simulation-based evaluation of moderation strategies. We fill this gap by designing a LLM-powered simulator of OSN conversations enabling a parallel, counterfactual simulation where toxic behavior is influenced by moderation interventions, keeping all else equal. We conduct extensive experiments, unveiling the psychological realism of OSN agents, the emergence of social contagion phenomena and the superior effectiveness of personalized moderation strategies.
- Abstract(参考訳): オンラインソーシャルネットワーク(OSN)は、乱暴で有害な会話の拡散を緩和するために、コンテンツモデレーションを広く採用している。
それにもかかわらず、データ収集のコストが高く、実験的な制御が限られているため、モデレーション介入の実際の有効性は明らかでない。
自然言語処理の最新の開発は、新しい評価アプローチの道を開いた。
大規模言語モデル(LLM)は、エージェントベースモデリングを強化し、前例のない信頼性で人間のような社会的振る舞いをシミュレートするために、うまく活用することができる。
しかし、既存のツールは、モデレーション戦略のシミュレーションベースの評価をサポートしない。
このギャップを埋めるために、LLMを用いたOSN会話シミュレータを設計し、有害な振る舞いがモデレーションの介入に影響され、他の全てと等しく保たれるような、並列で反実的なシミュレーションを可能にする。
我々は、OSNエージェントの心理的リアリズム、社会的伝染現象の出現、パーソナライズされたモデレーション戦略の優れた効果など、幅広い実験を行った。
関連論文リスト
- Social Simulations with Large Language Model Risk Utopian Illusion [61.358959720048354]
社会シミュレーションにおける大規模言語モデルの行動分析のための体系的枠組みを提案する。
本手法は,チャットルーム型会話を通してマルチエージェントインタラクションをシミュレートし,5つの言語的側面にわたって解析する。
以上の結果から,LSMは真の人間の行動を忠実に再現するのではなく,過度に理想化されたバージョンを反映していることが明らかとなった。
論文 参考訳(メタデータ) (2025-10-24T06:08:41Z) - Implicit Behavioral Alignment of Language Agents in High-Stakes Crowd Simulations [3.0112218223206173]
言語駆動型生成エージェントは、対人訓練からグローバルな政策作成を支援するまで、変革的な利用で社会シミュレーションを可能にした。
近年の研究では、生成的エージェントの行動が、専門家の期待や実世界のデータから逸脱することが多いことが示唆されている。
本稿では,レウィンの行動方程式に基づく分布整合問題として定式化されたPEBA(Persona-Environment Behavioral Alignment)という理論的枠組みを紹介する。
本稿では, エージェントペルソナを反復的に洗練する, LLMに基づく最適化アルゴリズムであるPersonaEvolve(PEvo)を提案する。
論文 参考訳(メタデータ) (2025-09-19T22:35:13Z) - Large Language Model Driven Agents for Simulating Echo Chamber Formation [5.6488384323017]
ソーシャルメディアプラットフォームにおけるエコーチャンバーの台頭は、分極と既存の信念の強化に対する懸念を高めている。
エコーチャンバーの形成をシミュレーションするための従来の手法は、しばしば事前定義された規則や数値シミュレーションに依存してきた。
本稿では,大言語モデル(LLM)を生成エージェントとして活用し,エコーチャンバー力学をシミュレートする新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-25T12:05:11Z) - GenSim: A General Social Simulation Platform with Large Language Model based Agents [111.00666003559324]
我々はtextitGenSim と呼ばれる新しい大規模言語モデル (LLM) ベースのシミュレーションプラットフォームを提案する。
我々のプラットフォームは10万のエージェントをサポートし、現実世界のコンテキストで大規模人口をシミュレートする。
我々の知る限り、GenSimは汎用的で大規模で修正可能な社会シミュレーションプラットフォームに向けた最初の一歩である。
論文 参考訳(メタデータ) (2024-10-06T05:02:23Z) - Shall We Team Up: Exploring Spontaneous Cooperation of Competing LLM Agents [18.961470450132637]
本稿では、エージェントが文脈に深く関与し、明示的な指示なしに適応的な決定を行う自然現象の重要性を強調する。
我々は,3つの競争シナリオにまたがる自発的な協力を探究し,協力の段階的出現をシミュレートした。
論文 参考訳(メタデータ) (2024-02-19T18:00:53Z) - Systematic Biases in LLM Simulations of Debates [12.933509143906141]
人間の相互作用をシミュレートする際の大規模言語モデルの限界について検討する。
以上の結果から, LLMエージェントがモデル固有の社会的バイアスに適合する傾向が示唆された。
これらの結果は、エージェントがこれらのバイアスを克服するのに役立つ方法を開発するためのさらなる研究の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-02-06T14:51:55Z) - Training Socially Aligned Language Models on Simulated Social
Interactions [99.39979111807388]
AIシステムにおける社会的アライメントは、確立された社会的価値に応じてこれらのモデルが振舞うことを保証することを目的としている。
現在の言語モデル(LM)は、トレーニングコーパスを独立して厳格に複製するように訓練されている。
本研究は,シミュレートされた社会的相互作用からLMを学習することのできる,新しい学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-26T14:17:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。