論文の概要: Simulating Misinformation Vulnerabilities With Agent Personas
- arxiv url: http://arxiv.org/abs/2511.04697v1
- Date: Fri, 31 Oct 2025 18:44:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.529659
- Title: Simulating Misinformation Vulnerabilities With Agent Personas
- Title(参考訳): エージェントペルソナによる誤情報脆弱性のシミュレーション
- Authors: David Farr, Lynnette Hui Xian Ng, Stephen Prochaska, Iain J. Cruickshank, Jevin West,
- Abstract要約: 我々は,誤情報に対する応答をモデル化するために,大規模言語モデルを用いたエージェントベースシミュレーションを開発した。
5つの専門職と3つのメンタルスキーマにまたがるエージェントペルソナを構築し,ニュースの見出しに対する反応を評価する。
以上の結果から, LLM生成エージェントは, 情報応答研究のプロキシとしての利用を支援するため, 地中構造ラベルや人体予測と密接に一致していることが示唆された。
- 参考スコア(独自算出の注目度): 1.0120858915885353
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Disinformation campaigns can distort public perception and destabilize institutions. Understanding how different populations respond to information is crucial for designing effective interventions, yet real-world experimentation is impractical and ethically challenging. To address this, we develop an agent-based simulation using Large Language Models (LLMs) to model responses to misinformation. We construct agent personas spanning five professions and three mental schemas, and evaluate their reactions to news headlines. Our findings show that LLM-generated agents align closely with ground-truth labels and human predictions, supporting their use as proxies for studying information responses. We also find that mental schemas, more than professional background, influence how agents interpret misinformation. This work provides a validation of LLMs to be used as agents in an agent-based model of an information network for analyzing trust, polarization, and susceptibility to deceptive content in complex social systems.
- Abstract(参考訳): 偽情報キャンペーンは公共の認識を歪め、制度を不安定にすることができる。
情報にどう反応するかを理解することは効果的な介入を設計するために重要であるが、実世界の実験は非現実的で倫理的に難しい。
そこで我々は,誤情報に対する応答をモデル化するために,Large Language Models (LLMs) を用いたエージェントベースシミュレーションを開発した。
5つの専門職と3つのメンタルスキーマにまたがるエージェントペルソナを構築し,ニュースの見出しに対する反応を評価する。
以上の結果から, LLM生成エージェントは, 情報応答研究のプロキシとしての利用を支援するため, 地中構造ラベルや人体予測と密接に一致していることが示唆された。
また、専門的背景以上のメンタルスキーマが、エージェントが誤情報を解釈する方法に影響を与えることもわかりました。
この研究は、複雑な社会システムにおけるコンテンツに対する信頼、偏り、および感受性を分析するための情報ネットワークのエージェントベースモデルにおいて、エージェントとして使用されるLLMの検証を提供する。
関連論文リスト
- A Survey on Agentic Multimodal Large Language Models [84.18778056010629]
エージェントマルチモーダル大言語モデル(Agentic MLLMs)に関する総合的な調査を行う。
我々は,エージェントMLLMの新たなパラダイムを探求し,その概念的基盤を明確にし,従来のMLLMエージェントとの特徴を区別する。
コミュニティのためのこの分野の研究をさらに加速するため、エージェントMLLMを開発するためのオープンソースのトレーニングフレームワーク、トレーニングおよび評価データセットをコンパイルする。
論文 参考訳(メタデータ) (2025-10-13T04:07:01Z) - FAIRGAME: a Framework for AI Agents Bias Recognition using Game Theory [51.96049148869987]
ゲーム理論を用いたAIエージェントバイアス認識フレームワークFAIRGAMEを提案する。
我々は,AIエージェント間の人気ゲームにおけるバイアスのある結果を明らかにするために,その実装と利用について述べる。
全体として、FAIRGAMEはユーザーが望むゲームやシナリオを確実に簡単にシミュレートできる。
論文 参考訳(メタデータ) (2025-04-19T15:29:04Z) - Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - Large Language Model-driven Multi-Agent Simulation for News Diffusion Under Different Network Structures [36.45109260662318]
この研究は、情報エコシステム内の複雑な相互作用を再現するために、大規模言語モデル(LLM)によるマルチエージェントシミュレーションを用いている。
エージェントのパーソナリティやネットワーク構造など,ニュースの伝播を促進する重要な要因について検討する。
我々は3つの対策策を評価し、ネットワーク内の影響力のあるエージェントをブロックするブルートフォースを発見するか、あるいはニュースの正確性を示すことで、誤情報を効果的に軽減することができる。
論文 参考訳(メタデータ) (2024-10-16T23:58:26Z) - AI-LieDar: Examine the Trade-off Between Utility and Truthfulness in LLM Agents [27.10147264744531]
本研究では,Large Language Models (LLM) をベースとしたエージェントが,マルチターン対話環境でシナリオをナビゲートする方法について検討する。
エージェントの反応を評価するために,心理文献にヒントを得た真正性検知装置を開発した。
我々の実験は、すべてのモデルが50%未満の真理であることを示したが、真理性と目標達成率(実用性)はモデルによって異なる。
論文 参考訳(メタデータ) (2024-09-13T17:41:12Z) - Mental Modeling of Reinforcement Learning Agents by Language Models [14.668006477454616]
この研究は、いかに大きな言語モデルがエージェントのメンタルモデルを構築することができるか、初めて実証的に検証する。
本研究は, LLMを用いたRL剤の挙動解明の可能性を明らかにする。
論文 参考訳(メタデータ) (2024-06-26T17:14:45Z) - Knowledge Boundary and Persona Dynamic Shape A Better Social Media Agent [69.12885360755408]
パーソナライズされた知識と動的ペルソナ情報に基づくソーシャルメディアエージェントを構築する。
パーソナライズされた知識に対して、外部知識ソースを追加し、エージェントのペルソナ情報とマッチングすることにより、エージェントにパーソナライズされた世界知識を与える。
動的ペルソナ情報については、現在の行動情報を用いてエージェントのペルソナ情報を内部的に検索し、現在の行動に対する多様なペルソナ情報の干渉を低減する。
論文 参考訳(メタデータ) (2024-03-28T10:01:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。