論文の概要: MTOS: A LLM-Driven Multi-topic Opinion Simulation Framework for Exploring Echo Chamber Dynamics
- arxiv url: http://arxiv.org/abs/2510.12423v1
- Date: Tue, 14 Oct 2025 11:59:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 19:02:32.304713
- Title: MTOS: A LLM-Driven Multi-topic Opinion Simulation Framework for Exploring Echo Chamber Dynamics
- Title(参考訳): MTOS:エコーチャンバーダイナミクスを探索するLLM駆動マルチトピックオピニオンシミュレーションフレームワーク
- Authors: Dingyi Zuo, Hongjie Zhang, Jie Ou, Chaosheng Feng, Shuwan Liu,
- Abstract要約: 現実世界のネットワークでは、情報は複数の関連トピックにまたがり、意見の進化に挑戦する。
大規模言語モデル(LLM)に基づく既存の研究は、主に単一のトピックに焦点を当て、マルチトピック、クロスドメインのコンテキストにおける認知的伝達の捕捉を制限する。
一方、伝統的な数値モデルは、複雑な言語態度を離散的な値に単純化し、解釈可能性、行動整合性、複数のトピックを統合する能力に欠ける。
マルチトピック・オピニオン・シミュレーション(MTOS)を提案する。
- 参考スコア(独自算出の注目度): 4.784214920683191
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The polarization of opinions, information segregation, and cognitive biases on social media have attracted significant academic attention. In real-world networks, information often spans multiple interrelated topics, posing challenges for opinion evolution and highlighting the need for frameworks that simulate interactions among topics. Existing studies based on large language models (LLMs) focus largely on single topics, limiting the capture of cognitive transfer in multi-topic, cross-domain contexts. Traditional numerical models, meanwhile, simplify complex linguistic attitudes into discrete values, lacking interpretability, behavioral consistency, and the ability to integrate multiple topics. To address these issues, we propose Multi-topic Opinion Simulation (MTOS), a social simulation framework integrating multi-topic contexts with LLMs. MTOS leverages LLMs alongside short-term and long-term memory, incorporates multiple user-selection interaction mechanisms and dynamic topic-selection strategies, and employs a belief decay mechanism to enable perspective updates across topics. We conduct extensive experiments on MTOS, varying topic numbers, correlation types, and performing ablation studies to assess features such as group polarization and local consistency. Results show that multi-topic settings significantly alter polarization trends: positively correlated topics amplify echo chambers, negatively correlated topics inhibit them, and irrelevant topics also mitigate echo chamber effects through resource competition. Compared with numerical models, LLM-based agents realistically simulate dynamic opinion changes, reproduce linguistic features of news texts, and capture complex human reasoning, improving simulation interpretability and system stability.
- Abstract(参考訳): ソーシャルメディアにおける意見の分極、情報分離、認知バイアスは、学術的な注目を集めている。
現実世界のネットワークでは、情報は複数の相互関連トピックにまたがり、意見の進化に挑戦し、トピック間の相互作用をシミュレートするフレームワークの必要性を強調する。
大規模言語モデル(LLM)に基づく既存の研究は、主に単一のトピックに焦点を当て、マルチトピック、クロスドメインのコンテキストにおける認知的伝達の捕捉を制限する。
一方、伝統的な数値モデルは、複雑な言語態度を離散的な値に単純化し、解釈可能性、行動整合性、複数のトピックを統合する能力に欠ける。
これらの課題に対処するために,マルチトピック・オピニオン・シミュレーション(MTOS)を提案する。
MTOSはLLMを短期記憶と長期記憶と併用し、複数のユーザ選択インタラクション機構と動的トピック選択戦略を導入し、トピック間の視点更新を可能にするために信念減衰機構を採用している。
MTOS, 様々な話題数, 相関型, グループ分極や局所整合性などの特徴を評価するためのアブレーション研究を行う。
以上の結果から, 正相関トピックはエコーチャンバーを増幅し, 負相関トピックはエコーチャンバーを阻害し, 無相関トピックはリソースコンペティションを通じてエコーチャンバー効果を緩和する。
数値モデルと比較すると, LLMをベースとしたエージェントは動的意見変化を現実的にシミュレートし, ニューステキストの言語的特徴を再現し, 複雑な人間の推論を捉え, シミュレーションの解釈性とシステムの安定性を向上させる。
関連論文リスト
- MADIAVE: Multi-Agent Debate for Implicit Attribute Value Extraction [52.89860691282002]
インプシット属性値抽出(AVE)は、電子商取引における商品の正確な表現に不可欠である。
マルチモーダル大言語モデル(MLLM)の進歩にもかかわらず、多次元データの複雑さのため暗黙のAVEは依然として困難である。
我々は,複数のMLLMエージェントを用いて推論を反復的に洗練するマルチエージェント討論フレームワークであるtextscmodelnameを紹介する。
論文 参考訳(メタデータ) (2025-10-07T06:27:42Z) - Explaining multimodal LLMs via intra-modal token interactions [55.27436637894534]
MLLM(Multimodal Large Language Models)は、様々な視覚言語タスクにおいて顕著な成功を収めているが、その内部決定機構は十分に理解されていない。
モーダル内相互作用を利用した解釈可能性の向上を提案する。
論文 参考訳(メタデータ) (2025-09-26T14:39:13Z) - Beyond Spurious Signals: Debiasing Multimodal Large Language Models via Counterfactual Inference and Adaptive Expert Routing [10.66971486730557]
MLLM(Multimodal Large Language Models)は、視覚情報とテキスト情報を統合する能力を示すが、しばしば素早い相関に頼っている。
本稿では,MLLMの表層相関バイアスに対する批判的課題を,新たな因果媒介に基づく脱バイアスフレームワークを通じて解決する。
論文 参考訳(メタデータ) (2025-09-18T19:01:11Z) - MLLM-CL: Continual Learning for Multimodal Large Language Models [39.19456474036905]
ドメインと能力の連続学習を含む新しいベンチマークであるMLLM-CLを紹介する。
本稿では,パラメータ分離とMLLMに基づくルーティング機構による破滅的干渉を防止することを提案する。
我々のアプローチは、ドメイン固有の知識と機能的能力とを最小限の忘れ込みで統合することができ、既存の手法よりもはるかに優れています。
論文 参考訳(メタデータ) (2025-06-05T17:58:13Z) - MLLMs are Deeply Affected by Modality Bias [158.64371871084478]
MLLM(Multimodal Large Language Models)の最近の進歩は、テキストや画像などの多様なモダリティを統合する上で、有望な成果を示している。
MLLMはモダリティバイアスに強く影響され、しばしば言語に依存し、視覚入力のような他のモダリティを過小評価する。
本稿では,MLLMはモダリティバイアスの影響を強く受けており,様々なタスクにまたがってその発現を明らかにする。
論文 参考訳(メタデータ) (2025-05-24T11:49:31Z) - Beyond Single-Turn: A Survey on Multi-Turn Interactions with Large Language Models [8.08979200534563]
現実世界のアプリケーションは洗練されたマルチターンインタラクションを必要とする。
大規模言語モデル(LLM)の最近の進歩は、シングルターンタスクを扱う能力に革命をもたらした。
論文 参考訳(メタデータ) (2025-04-07T04:00:08Z) - RA-BLIP: Multimodal Adaptive Retrieval-Augmented Bootstrapping Language-Image Pre-training [55.54020926284334]
近年,MLLM (Multimodal Large Language Models) が注目されている。
検索拡張技術はLLMとMLLMの両方に有効なプラグインであることが証明されている。
本研究では,MLLMの新しい検索支援フレームワークであるRA-BLIP(Retrieval-Augmented Bootstrapping Language-Image Pre-training)を提案する。
論文 参考訳(メタデータ) (2024-10-18T03:45:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。