論文の概要: LLMs are Introvert
- arxiv url: http://arxiv.org/abs/2507.05638v1
- Date: Tue, 08 Jul 2025 03:32:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:37.548375
- Title: LLMs are Introvert
- Title(参考訳): LLMは内向的です
- Authors: Litian Zhang, Xiaoming Zhang, Bingyu Yan, Ziyi Zhou, Bo Zhang, Zhenyu Guan, Xi Zhang, Chaozhuo Li,
- Abstract要約: 大規模言語モデル(LLM)は情報拡散の心理的側面をシミュレートする新たな可能性を提供する。
最初の実験では、LLM生成挙動と真の人間の力学の間に大きなギャップがあることが判明した。
本稿では、感情誘導記憶によって強化された社会情報処理に基づく思考の連鎖(SIP-CoT)機構を提案する。
- 参考スコア(独自算出の注目度): 21.542534041341774
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The exponential growth of social media and generative AI has transformed information dissemination, fostering connectivity but also accelerating the spread of misinformation. Understanding information propagation dynamics and developing effective control strategies is essential to mitigate harmful content. Traditional models, such as SIR, provide basic insights but inadequately capture the complexities of online interactions. Advanced methods, including attention mechanisms and graph neural networks, enhance accuracy but typically overlook user psychology and behavioral dynamics. Large language models (LLMs), with their human-like reasoning, offer new potential for simulating psychological aspects of information spread. We introduce an LLM-based simulation environment capturing agents' evolving attitudes, emotions, and responses. Initial experiments, however, revealed significant gaps between LLM-generated behaviors and authentic human dynamics, especially in stance detection and psychological realism. A detailed evaluation through Social Information Processing Theory identified major discrepancies in goal-setting and feedback evaluation, stemming from the lack of emotional processing in standard LLM training. To address these issues, we propose the Social Information Processing-based Chain of Thought (SIP-CoT) mechanism enhanced by emotion-guided memory. This method improves the interpretation of social cues, personalization of goals, and evaluation of feedback. Experimental results confirm that SIP-CoT-enhanced LLM agents more effectively process social information, demonstrating behaviors, attitudes, and emotions closer to real human interactions. In summary, this research highlights critical limitations in current LLM-based propagation simulations and demonstrates how integrating SIP-CoT and emotional memory significantly enhances the social intelligence and realism of LLM agents.
- Abstract(参考訳): ソーシャルメディアと生成AIの指数関数的な成長は、情報の拡散を変革し、接続性を高めつつ、誤情報の拡散を促進する。
情報伝達のダイナミクスを理解し、効果的な制御戦略を開発することは、有害なコンテンツの軽減に不可欠である。
SIRのような伝統的なモデルは基本的な洞察を提供するが、オンラインインタラクションの複雑さを適切に捉えていない。
注意機構やグラフニューラルネットワークを含む高度な手法は精度を高めるが、通常はユーザーの心理学や行動力学を見落としている。
大規模言語モデル(LLM)は、人間のような推論とともに、情報拡散の心理的側面をシミュレートする新たな可能性を提供する。
エージェントの進化する態度,感情,反応をキャプチャするLLMに基づくシミュレーション環境を提案する。
しかし、初期の実験では、特に姿勢検出と心理的リアリズムにおいて、LCMが生成する行動と真の人間のダイナミクスの間に大きなギャップが見られた。
社会情報処理理論(Social Information Processing Theory)による詳細な評価により,標準LLMトレーニングにおける感情処理の欠如から,目標設定とフィードバック評価における大きな相違が明らかになった。
これらの課題に対処するために、感情誘導メモリにより強化された社会情報処理に基づく思考の連鎖(SIP-CoT)機構を提案する。
この方法は,社会的手がかりの解釈,目標のパーソナライゼーション,フィードバックの評価を改善する。
SIP-CoTにより強化されたLLMエージェントは、より効果的に社会情報を処理し、実際の人間との相互作用に近い行動、態度、感情を示す。
要約して、本研究は、現在のLLMベースの伝播シミュレーションにおける限界を強調し、SIP-CoTと感情記憶の統合がLLMエージェントの社会的インテリジェンスとリアリズムをいかに大きく向上させるかを示す。
関連論文リスト
- Mind the (Belief) Gap: Group Identity in the World of LLMs [22.96432452893247]
社会的バイアスと信念駆動行動は、いくつかのタスクにおける大規模言語モデル(LLM)の決定に大きな影響を与える可能性がある。
本稿では,社会的相互作用と嗜好を形成する上で重要な役割を果たす古典的集団心理学理論である,信念の一致をシミュレートするマルチエージェントフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-03T19:50:52Z) - Large Language Model Driven Agents for Simulating Echo Chamber Formation [5.6488384323017]
ソーシャルメディアプラットフォームにおけるエコーチャンバーの台頭は、分極と既存の信念の強化に対する懸念を高めている。
エコーチャンバーの形成をシミュレーションするための従来の手法は、しばしば事前定義された規則や数値シミュレーションに依存してきた。
本稿では,大言語モデル(LLM)を生成エージェントとして活用し,エコーチャンバー力学をシミュレートする新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-25T12:05:11Z) - Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
データ構築とモデルチューニングを改善するためのフレームワークPersLLMを提案する。
データ利用が不十分な場合には、Chain-of-Thoughtプロンプトやアンチインダクションといった戦略を取り入れます。
厳密な振舞いパターンを設計し,モデルの性格の特異性とダイナミズムを高めるために自動DPOを導入する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - Network Formation and Dynamics Among Multi-LLMs [5.8418144988203915]
GPT、Claude、Llamaのような大規模言語モデル(LLM)は、ますます社会的および専門的な設定に統合されるようになっている。
本研究では、複数のLLMのネットワーク形成挙動が人間のネットワーク力学の特定の側面に近似するかどうかを検討する枠組みを開発する。
論文 参考訳(メタデータ) (2024-02-16T13:10:14Z) - Systematic Biases in LLM Simulations of Debates [12.933509143906141]
人間の相互作用をシミュレートする際の大規模言語モデルの限界について検討する。
以上の結果から, LLMエージェントがモデル固有の社会的バイアスに適合する傾向が示唆された。
これらの結果は、エージェントがこれらのバイアスを克服するのに役立つ方法を開発するためのさらなる研究の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-02-06T14:51:55Z) - Influence of External Information on Large Language Models Mirrors
Social Cognitive Patterns [51.622612759892775]
社会的認知理論は、人々が他人を観察して知識を習得する方法を説明する。
近年,大規模言語モデル(LLM)の急速な発展を目撃している。
LLMは、AIエージェントとして、その認知と行動を形成する外部情報を観察することができる。
論文 参考訳(メタデータ) (2023-05-08T16:10:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。