論文の概要: Influence of External Information on Large Language Models Mirrors
Social Cognitive Patterns
- arxiv url: http://arxiv.org/abs/2305.04812v3
- Date: Fri, 20 Oct 2023 10:18:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 11:55:23.769214
- Title: Influence of External Information on Large Language Models Mirrors
Social Cognitive Patterns
- Title(参考訳): 社会的認知パターンを反映した大規模言語モデルに対する外部情報の影響
- Authors: Ning Bian, Hongyu Lin, Peilin Liu, Yaojie Lu, Chunkang Zhang, Ben He,
Xianpei Han, and Le Sun
- Abstract要約: 社会的認知理論は、人々が他人を観察して知識を習得する方法を説明する。
近年,大規模言語モデル(LLM)の急速な発展を目撃している。
LLMは、AIエージェントとして、その認知と行動を形成する外部情報を観察することができる。
- 参考スコア(独自算出の注目度): 51.622612759892775
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Social cognitive theory explains how people learn and acquire knowledge
through observing others. Recent years have witnessed the rapid development of
large language models (LLMs), which suggests their potential significance as
agents in the society. LLMs, as AI agents, can observe external information,
which shapes their cognition and behaviors. However, the extent to which
external information influences LLMs' cognition and behaviors remains unclear.
This study investigates how external statements and opinions influence LLMs'
thoughts and behaviors from a social cognitive perspective. Three experiments
were conducted to explore the effects of external information on LLMs'
memories, opinions, and social media behavioral decisions. Sociocognitive
factors, including source authority, social identity, and social role, were
analyzed to investigate their moderating effects. Results showed that external
information can significantly shape LLMs' memories, opinions, and behaviors,
with these changes mirroring human social cognitive patterns such as authority
bias, in-group bias, emotional positivity, and emotion contagion. This
underscores the challenges in developing safe and unbiased LLMs, and emphasizes
the importance of understanding the susceptibility of LLMs to external
influences.
- Abstract(参考訳): 社会的認知理論は、人々が他人を観察して知識を習得する方法を説明する。
近年,大規模言語モデル (LLM) の急速な発展が見られ,社会におけるエージェントとしての重要性が示唆されている。
LLMは、AIエージェントとして、その認知と行動を形成する外部情報を観察することができる。
しかし,外部情報がLLMの認知や行動にどのような影響を及ぼすかは不明である。
本研究では,外的発言や意見がLLMの思考や行動に社会的認知の観点からどのように影響するかを検討する。
LLMの記憶や意見,ソーシャルメディアの行動決定に対する外部情報の影響を調べるために,3つの実験を行った。
ソース権限,社会的アイデンティティ,社会的役割を含む社会認知要因を分析し,そのモデレーション効果を検討した。
これらの変化は、権威バイアス、集団内バイアス、感情的肯定性、感情の伝染といった人間の社会的認知パターンを反映している。
このことは、安全で偏見のないLLMを開発する上での課題を浮き彫りにし、LLMの外部の影響に対する感受性を理解することの重要性を強調している。
関連論文リスト
- Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - AI Can Be Cognitively Biased: An Exploratory Study on Threshold Priming in LLM-Based Batch Relevance Assessment [37.985947029716016]
大規模言語モデル(LLM)は高度な理解能力を示しているが、トレーニングデータから人間のバイアスを継承する可能性がある。
関連判定におけるしきい値プライミング効果の影響について検討した。
論文 参考訳(メタデータ) (2024-09-24T12:23:15Z) - Investigating Context Effects in Similarity Judgements in Large Language Models [6.421776078858197]
大規模言語モデル(LLM)は、自然言語テキストの理解と生成におけるAIモデルの能力に革命をもたらした。
命令バイアスによる人的判断とLCMのアライメントに関する調査が進行中である。
論文 参考訳(メタデータ) (2024-08-20T10:26:02Z) - Quantifying AI Psychology: A Psychometrics Benchmark for Large Language Models [57.518784855080334]
大きな言語モデル(LLM)は例外的なタスク解決能力を示しており、人間に似た役割を担っている。
本稿では,LLMにおける心理学的次元を調査するための枠組みとして,心理学的識別,評価データセットのキュレーション,結果検証による評価について述べる。
本研究では,個性,価値観,感情,心の理論,モチベーション,知性の6つの心理学的側面を網羅した総合的心理測定ベンチマークを導入する。
論文 参考訳(メタデータ) (2024-06-25T16:09:08Z) - Exploring the Frontiers of LLMs in Psychological Applications: A Comprehensive Review [4.147674289030404]
大規模言語モデル(LLM)は、人間の認知と行動の側面をシミュレートする可能性がある。
LLMは、文献レビュー、仮説生成、実験的なデザイン、実験的な主題、データ分析、学術的な執筆、心理学におけるピアレビューのための革新的なツールを提供する。
データプライバシ、心理的研究にLLMを使うことの倫理的意味、モデルの制限をより深く理解する必要がある、といった問題があります。
論文 参考訳(メタデータ) (2024-01-03T03:01:29Z) - Do LLM Agents Exhibit Social Behavior? [5.094340963261968]
State-Understanding-Value-Action (SUVA) は、社会的文脈における応答を体系的に分析するフレームワークである。
最終決定とそれにつながる反応生成プロセスの両方を通じて社会的行動を評価する。
発話に基づく推論がLLMの最終動作を確実に予測できることを実証する。
論文 参考訳(メタデータ) (2023-12-23T08:46:53Z) - RECALL: A Benchmark for LLMs Robustness against External Counterfactual
Knowledge [69.79676144482792]
本研究の目的は,LLMが外部知識から信頼できる情報を識別する能力を評価することである。
本ベンチマークは,質問応答とテキスト生成という2つのタスクから構成される。
論文 参考訳(メタデータ) (2023-11-14T13:24:19Z) - MoCa: Measuring Human-Language Model Alignment on Causal and Moral
Judgment Tasks [49.60689355674541]
認知科学の豊富な文献は人々の因果関係と道徳的直観を研究してきた。
この研究は、人々の判断に体系的に影響を及ぼす多くの要因を明らかにした。
大規模言語モデル(LLM)が、人間の参加者と一致するテキストベースのシナリオについて因果的、道徳的な判断を下すかどうかを検証する。
論文 参考訳(メタデータ) (2023-10-30T15:57:32Z) - Investigating the Factual Knowledge Boundary of Large Language Models with Retrieval Augmentation [109.8527403904657]
大規模言語モデル(LLM)は,その知識に対する信頼度が低く,内部知識と外部知識の衝突をうまく扱えないことを示す。
検索の強化は、LLMの知識境界に対する認識を高める効果的なアプローチであることが証明されている。
本稿では,文書を動的に活用するための簡易な手法を提案する。
論文 参考訳(メタデータ) (2023-07-20T16:46:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。