論文の概要: ElecTwit: A Framework for Studying Persuasion in Multi-Agent Social Systems
- arxiv url: http://arxiv.org/abs/2601.00994v1
- Date: Fri, 02 Jan 2026 22:10:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:21.928375
- Title: ElecTwit: A Framework for Studying Persuasion in Multi-Agent Social Systems
- Title(参考訳): ElecTwit: マルチエージェント社会システムにおける説得の研究フレームワーク
- Authors: Michael Bao,
- Abstract要約: ElecTwitはマルチエージェントシステム内での説得を研究するために設計されたシミュレーションフレームワークである。
以上の結果から,ほとんどのLLMで25種類の説得法を総合的に使用した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces ElecTwit, a simulation framework designed to study persuasion within multi-agent systems, specifically emulating the interactions on social media platforms during a political election. By grounding our experiments in a realistic environment, we aimed to overcome the limitations of game-based simulations often used in prior research. We observed the comprehensive use of 25 specific persuasion techniques across most tested LLMs, encompassing a wider range than previously reported. The variations in technique usage and overall persuasion output between models highlight how different model architectures and training can impact the dynamics in realistic social simulations. Additionally, we observed unique phenomena such as "kernel of truth" messages and spontaneous developments with an "ink" obsession, where agents collectively demanded written proof. Our study provides a foundation for evaluating persuasive LLM agents in real-world contexts, ensuring alignment and preventing dangerous outcomes.
- Abstract(参考訳): 本稿では,政治選挙におけるソーシャルメディアプラットフォーム上でのインタラクションを具体的にエミュレートし,マルチエージェントシステム内での説得を研究するためのシミュレーションフレームワークであるElecTwitを紹介する。
実験を現実的な環境で基礎づけることで,先行研究でよく使用されるゲームベースシミュレーションの限界を克服することを目的とした。
これまでに報告された以上の範囲を網羅した,ほとんどのLSMにおいて,25種類の特定の説得法を包括的に使用することを観察した。
技術利用のバリエーションとモデル間の全体的な説得出力は、モデルアーキテクチャとトレーニングの違いが、現実的な社会シミュレーションのダイナミクスにどのように影響するかを強調している。
また、「真理のカーネル」メッセージや「シンク」強迫観念による自然発生のようなユニークな現象を観察し、エージェントが一括して証明を要求した。
本研究は、現実の文脈における説得的LLMエージェントの評価、アライメントの確保、危険な結果の防止のための基盤を提供する。
関連論文リスト
- Simulating Students with Large Language Models: A Review of Architecture, Mechanisms, and Role Modelling in Education with Generative AI [0.8703455323398351]
大規模言語モデル(LLM)を用いた教育環境における学生の行動のシミュレートに関する研究のレビュー
LLMをベースとしたエージェントが学習者の古型をエミュレートし、指導的な入力に反応し、マルチエージェントの教室シナリオ内で相互作用する能力に関する現在の証拠を示す。
本稿では,カリキュラム開発,教育評価,教員養成におけるシステムの役割について検討する。
論文 参考訳(メタデータ) (2025-11-08T17:23:13Z) - DeceptionBench: A Comprehensive Benchmark for AI Deception Behaviors in Real-world Scenarios [57.327907850766785]
現実的な現実のシナリオにまたがる騙しのキャラクタリゼーションは未解明のままである。
DeceptionBenchは、さまざまなドメインにまたがる認知傾向を体系的に評価する最初のベンチマークです。
本研究は,本質的な側面から,ユーザ満足度を優先する自己関心のエゴスティックな傾向を示すモデルや,サイコファンティックな行動を示すモデルについて検討する。
実世界のフィードバックダイナミクスのより現実的なシミュレーションを構築するために,持続的マルチターン相互作用ループを組み込んだ。
論文 参考訳(メタデータ) (2025-10-17T10:14:26Z) - LLM-based Agentic Reasoning Frameworks: A Survey from Methods to Scenarios [63.08653028889316]
エージェント推論フレームワークを分解し,これらのフレームワークがどのようにフレームワークレベルの推論を支配しているかを分析する。
具体的には,エージェント推論システムを単一エージェントメソッド,ツールベースメソッド,マルチエージェントメソッドに分類するための統一形式言語を提案する。
我々は、科学的発見、医療、ソフトウェア工学、社会シミュレーション、経済学における彼らの主要な応用シナリオを包括的にレビューする。
論文 参考訳(メタデータ) (2025-08-25T06:01:16Z) - Integrating LLM in Agent-Based Social Simulation: Opportunities and Challenges [0.7739037410679168]
本稿では,人間の認知の重要な側面を再現する大規模言語モデルの能力に関する最近の知見をレビューする。
第2部はマルチエージェント・シミュレーション・フレームワークにおけるLLMの新しい応用について調査している。
この論文は、従来のエージェントベースモデリングプラットフォームにLLMを統合するハイブリッドアプローチを提唱することで締めくくっている。
論文 参考訳(メタデータ) (2025-07-25T15:15:35Z) - Large Language Model Driven Agents for Simulating Echo Chamber Formation [5.6488384323017]
ソーシャルメディアプラットフォームにおけるエコーチャンバーの台頭は、分極と既存の信念の強化に対する懸念を高めている。
エコーチャンバーの形成をシミュレーションするための従来の手法は、しばしば事前定義された規則や数値シミュレーションに依存してきた。
本稿では,大言語モデル(LLM)を生成エージェントとして活用し,エコーチャンバー力学をシミュレートする新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-25T12:05:11Z) - Designing Domain-Specific Large Language Models: The Critical Role of Fine-Tuning in Public Opinion Simulation [0.0]
本稿では,英国家庭縦断研究の社会デマトグラフィーデータを統合した,新しい微調整手法を提案する。
多様な合成プロファイルをエミュレートすることで、微調整されたモデルは、事前訓練されたモデルよりも大幅に優れている。
より広範な意味は、医療や教育などの分野にLLMをデプロイすること、包括的でデータ駆動型意思決定を促進することである。
論文 参考訳(メタデータ) (2024-09-28T10:39:23Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
データ構築とモデルチューニングを改善するためのフレームワークPersLLMを提案する。
データ利用が不十分な場合には、Chain-of-Thoughtプロンプトやアンチインダクションといった戦略を取り入れます。
厳密な振舞いパターンを設計し,モデルの性格の特異性とダイナミズムを高めるために自動DPOを導入する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。