論文の概要: Influence of External Information on Large Language Models Mirrors
Social Cognitive Patterns
- arxiv url: http://arxiv.org/abs/2305.04812v3
- Date: Fri, 20 Oct 2023 10:18:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 11:55:23.769214
- Title: Influence of External Information on Large Language Models Mirrors
Social Cognitive Patterns
- Title(参考訳): 社会的認知パターンを反映した大規模言語モデルに対する外部情報の影響
- Authors: Ning Bian, Hongyu Lin, Peilin Liu, Yaojie Lu, Chunkang Zhang, Ben He,
Xianpei Han, and Le Sun
- Abstract要約: 社会的認知理論は、人々が他人を観察して知識を習得する方法を説明する。
近年,大規模言語モデル(LLM)の急速な発展を目撃している。
LLMは、AIエージェントとして、その認知と行動を形成する外部情報を観察することができる。
- 参考スコア(独自算出の注目度): 51.622612759892775
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Social cognitive theory explains how people learn and acquire knowledge
through observing others. Recent years have witnessed the rapid development of
large language models (LLMs), which suggests their potential significance as
agents in the society. LLMs, as AI agents, can observe external information,
which shapes their cognition and behaviors. However, the extent to which
external information influences LLMs' cognition and behaviors remains unclear.
This study investigates how external statements and opinions influence LLMs'
thoughts and behaviors from a social cognitive perspective. Three experiments
were conducted to explore the effects of external information on LLMs'
memories, opinions, and social media behavioral decisions. Sociocognitive
factors, including source authority, social identity, and social role, were
analyzed to investigate their moderating effects. Results showed that external
information can significantly shape LLMs' memories, opinions, and behaviors,
with these changes mirroring human social cognitive patterns such as authority
bias, in-group bias, emotional positivity, and emotion contagion. This
underscores the challenges in developing safe and unbiased LLMs, and emphasizes
the importance of understanding the susceptibility of LLMs to external
influences.
- Abstract(参考訳): 社会的認知理論は、人々が他人を観察して知識を習得する方法を説明する。
近年,大規模言語モデル (LLM) の急速な発展が見られ,社会におけるエージェントとしての重要性が示唆されている。
LLMは、AIエージェントとして、その認知と行動を形成する外部情報を観察することができる。
しかし,外部情報がLLMの認知や行動にどのような影響を及ぼすかは不明である。
本研究では,外的発言や意見がLLMの思考や行動に社会的認知の観点からどのように影響するかを検討する。
LLMの記憶や意見,ソーシャルメディアの行動決定に対する外部情報の影響を調べるために,3つの実験を行った。
ソース権限,社会的アイデンティティ,社会的役割を含む社会認知要因を分析し,そのモデレーション効果を検討した。
これらの変化は、権威バイアス、集団内バイアス、感情的肯定性、感情の伝染といった人間の社会的認知パターンを反映している。
このことは、安全で偏見のないLLMを開発する上での課題を浮き彫りにし、LLMの外部の影響に対する感受性を理解することの重要性を強調している。
関連論文リスト
- How Susceptible are Large Language Models to Ideological Manipulation? [15.66231562682167]
大規模言語モデル(LLM)は、大衆の認識や情報との相互作用に大きな影響を与える可能性がある。
このことは、これらのモデル内のイデオロギーを容易に操作できれば生じる可能性のある社会的影響に関する懸念を提起する。
論文 参考訳(メタデータ) (2024-02-18T22:36:19Z) - Exploring the Frontiers of LLMs in Psychological Applications: A
Comprehensive Review [0.0]
大規模言語モデル(LLM)は、人間の認知と行動の側面をシミュレートする可能性がある。
LLMは、文献レビュー、仮説生成、実験的なデザイン、実験的な主題、データ分析、学術的な執筆、心理学におけるピアレビューのための革新的なツールを提供する。
データプライバシ、心理的研究にLLMを使うことの倫理的意味、モデルの制限をより深く理解する必要がある、といった問題があります。
論文 参考訳(メタデータ) (2024-01-03T03:01:29Z) - RECALL: A Benchmark for LLMs Robustness against External Counterfactual
Knowledge [69.79676144482792]
本研究の目的は,LLMが外部知識から信頼できる情報を識別する能力を評価することである。
本ベンチマークは,質問応答とテキスト生成という2つのタスクから構成される。
論文 参考訳(メタデータ) (2023-11-14T13:24:19Z) - MoCa: Measuring Human-Language Model Alignment on Causal and Moral
Judgment Tasks [49.60689355674541]
認知科学の豊富な文献は人々の因果関係と道徳的直観を研究してきた。
この研究は、人々の判断に体系的に影響を及ぼす多くの要因を明らかにした。
大規模言語モデル(LLM)が、人間の参加者と一致するテキストベースのシナリオについて因果的、道徳的な判断を下すかどうかを検証する。
論文 参考訳(メタデータ) (2023-10-30T15:57:32Z) - "Merge Conflicts!" Exploring the Impacts of External Distractors to
Parametric Knowledge Graphs [15.660128743249611]
大規模言語モデル(LLM)は、パラメトリック知識として知られる事前学習中に広範な知識を取得する。
LLMは必然的にユーザとの対話中に外部知識を必要とする。
外部知識がパラメトリック知識に干渉した場合、LCMはどのように反応するのだろうか?
論文 参考訳(メタデータ) (2023-09-15T17:47:59Z) - Emotionally Numb or Empathetic? Evaluating How LLMs Feel Using
EmotionBench [87.0089656487486]
我々は,Large Language Models (LLM) の共感能力を評価することを提案する。
我々は、研究の中心となる8つの感情を引き出すのに有効な400以上の状況を含むデータセットを収集した。
我々は世界中の1200人以上の被験者を対象に人間による評価を行った。
論文 参考訳(メタデータ) (2023-08-07T15:18:30Z) - Revisiting the Reliability of Psychological Scales on Large Language
Models [66.31055885857062]
本研究では,人格評価を大規模言語モデル(LLM)に適用する際の信頼性について検討する。
LLMのパーソナライズに光を当てることで、この分野での今後の探索の道を開くことに努める。
論文 参考訳(メタデータ) (2023-05-31T15:03:28Z) - Thinking Fast and Slow in Large Language Models [0.08057006406834465]
大規模言語モデル(LLM)は、現在、人間のコミュニケーションと日常の生活を結び付けるAIシステムの最前線にある。
本研究では, GPT-3 のような LLM は人間の直感に類似した行動を示し,それに伴う認知的誤りを示す。
論文 参考訳(メタデータ) (2022-12-10T05:07:30Z) - Evaluating and Inducing Personality in Pre-trained Language Models [78.19379997967191]
人間の個性理論を機械行動研究のツールとして活用することで,心理測定研究からインスピレーションを得た。
これらの疑問に答えるために,機械の動作を研究するためのMachine Personality Inventory(MPI)ツールを紹介した。
MPIは、ビッグファイブ・パーソナリティ・ファクター(Big Five Personality Factors、ビッグファイブ・パーソナリティ・ファクター)理論とパーソナリティ評価在庫に基づく標準化されたパーソナリティ・テストに従う。
パーソナリティ・プロンプト法(P2法)を考案し、特定のパーソナリティを持つLSMを制御可能な方法で誘導する。
論文 参考訳(メタデータ) (2022-05-20T07:32:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。