論文の概要: Simulating Misinformation Vulnerabilities With Agent Personas
- arxiv url: http://arxiv.org/abs/2511.04697v1
- Date: Fri, 31 Oct 2025 18:44:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.529659
- Title: Simulating Misinformation Vulnerabilities With Agent Personas
- Title(参考訳): エージェントペルソナによる誤情報脆弱性のシミュレーション
- Authors: David Farr, Lynnette Hui Xian Ng, Stephen Prochaska, Iain J. Cruickshank, Jevin West,
- Abstract要約: 我々は,誤情報に対する応答をモデル化するために,大規模言語モデルを用いたエージェントベースシミュレーションを開発した。
5つの専門職と3つのメンタルスキーマにまたがるエージェントペルソナを構築し,ニュースの見出しに対する反応を評価する。
以上の結果から, LLM生成エージェントは, 情報応答研究のプロキシとしての利用を支援するため, 地中構造ラベルや人体予測と密接に一致していることが示唆された。
- 参考スコア(独自算出の注目度): 1.0120858915885353
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Disinformation campaigns can distort public perception and destabilize institutions. Understanding how different populations respond to information is crucial for designing effective interventions, yet real-world experimentation is impractical and ethically challenging. To address this, we develop an agent-based simulation using Large Language Models (LLMs) to model responses to misinformation. We construct agent personas spanning five professions and three mental schemas, and evaluate their reactions to news headlines. Our findings show that LLM-generated agents align closely with ground-truth labels and human predictions, supporting their use as proxies for studying information responses. We also find that mental schemas, more than professional background, influence how agents interpret misinformation. This work provides a validation of LLMs to be used as agents in an agent-based model of an information network for analyzing trust, polarization, and susceptibility to deceptive content in complex social systems.
- Abstract(参考訳): 偽情報キャンペーンは公共の認識を歪め、制度を不安定にすることができる。
情報にどう反応するかを理解することは効果的な介入を設計するために重要であるが、実世界の実験は非現実的で倫理的に難しい。
そこで我々は,誤情報に対する応答をモデル化するために,Large Language Models (LLMs) を用いたエージェントベースシミュレーションを開発した。
5つの専門職と3つのメンタルスキーマにまたがるエージェントペルソナを構築し,ニュースの見出しに対する反応を評価する。
以上の結果から, LLM生成エージェントは, 情報応答研究のプロキシとしての利用を支援するため, 地中構造ラベルや人体予測と密接に一致していることが示唆された。
また、専門的背景以上のメンタルスキーマが、エージェントが誤情報を解釈する方法に影響を与えることもわかりました。
この研究は、複雑な社会システムにおけるコンテンツに対する信頼、偏り、および感受性を分析するための情報ネットワークのエージェントベースモデルにおいて、エージェントとして使用されるLLMの検証を提供する。
関連論文リスト
- Thinking Makes LLM Agents Introverted: How Mandatory Thinking Can Backfire in User-Engaged Agents [23.785816075149484]
思考の誘導による複雑なタスクにおける大規模言語モデル(LLM)の性能向上のための強力な手法として、推論の緩和が登場した。
本研究は,LLMエージェントの明示的思考効果に関する総合的研究である。
ユーザを巻き込んだ設定では,必須思考がエージェントのバックファイアを引き起こし,異常なパフォーマンス低下の原因となることが分かっています。
論文 参考訳(メタデータ) (2026-02-08T03:23:22Z) - On the Role of Contextual Information and Ego States in LLM Agent Behavior for Transactional Analysis Dialogues [0.0]
本稿では,トランザクション分析(TA)理論にヒントを得たマルチエージェントシステムを提案する。
提案システムでは、各エージェントは、親、大人、子という3つのエゴ状態に分けられる。
結果は、心理的に接地された構造がエージェントの振る舞いを豊かにする方法を探求するための新しい方向を、有望かつオープンにしている。
論文 参考訳(メタデータ) (2025-12-18T20:53:31Z) - Are Your Agents Upward Deceivers? [73.1073084327614]
大規模言語モデル(LLM)ベースのエージェントは、ユーザのためにタスクを実行する自律的な従属者として、ますます使われています。
これは、人間の組織の個人がどのように上官に嘘をついて良いイメージを作り出したり、罰を免れるかのような、詐欺にも関与するかどうかという問題を提起する。
本研究では,環境制約に直面するエージェントが障害を隠蔽し,報告なしに要求されない動作を行う現象であるエージェント上行錯誤を観察・定義する。
論文 参考訳(メタデータ) (2025-12-04T14:47:05Z) - Simulating Misinformation Propagation in Social Networks using Large Language Models [4.285464959472458]
ソーシャルメディア上の誤報は、人間の認知バイアスによって増幅される、驚き、感情、アイデンティティ駆動推論に基づいて成長する。
これらのメカニズムを解明するために、ユーザレベルの偏見、イデオロギー的アライメント、信頼誤報を模倣する合成エージェントとして、大規模言語モデル(LLM)ペルソナをモデル化する。
本セットアップでは,このようなエージェントのネットワークを介し,誤情報がどのように循環するかをシミュレートし,分析するための監査-条件付きノードフレームワークを導入する。
論文 参考訳(メタデータ) (2025-11-13T15:01:19Z) - A Survey on Agentic Multimodal Large Language Models [84.18778056010629]
エージェントマルチモーダル大言語モデル(Agentic MLLMs)に関する総合的な調査を行う。
我々は,エージェントMLLMの新たなパラダイムを探求し,その概念的基盤を明確にし,従来のMLLMエージェントとの特徴を区別する。
コミュニティのためのこの分野の研究をさらに加速するため、エージェントMLLMを開発するためのオープンソースのトレーニングフレームワーク、トレーニングおよび評価データセットをコンパイルする。
論文 参考訳(メタデータ) (2025-10-13T04:07:01Z) - FAIRGAME: a Framework for AI Agents Bias Recognition using Game Theory [51.96049148869987]
ゲーム理論を用いたAIエージェントバイアス認識フレームワークFAIRGAMEを提案する。
我々は,AIエージェント間の人気ゲームにおけるバイアスのある結果を明らかにするために,その実装と利用について述べる。
全体として、FAIRGAMEはユーザーが望むゲームやシナリオを確実に簡単にシミュレートできる。
論文 参考訳(メタデータ) (2025-04-19T15:29:04Z) - Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - Large Language Model-driven Multi-Agent Simulation for News Diffusion Under Different Network Structures [36.45109260662318]
この研究は、情報エコシステム内の複雑な相互作用を再現するために、大規模言語モデル(LLM)によるマルチエージェントシミュレーションを用いている。
エージェントのパーソナリティやネットワーク構造など,ニュースの伝播を促進する重要な要因について検討する。
我々は3つの対策策を評価し、ネットワーク内の影響力のあるエージェントをブロックするブルートフォースを発見するか、あるいはニュースの正確性を示すことで、誤情報を効果的に軽減することができる。
論文 参考訳(メタデータ) (2024-10-16T23:58:26Z) - Proactive Agent: Shifting LLM Agents from Reactive Responses to Active Assistance [95.03771007780976]
我々は、人間の指示なしにタスクを予測および開始できるプロアクティブエージェントを開発するという課題に取り組む。
まず,実世界の人的活動を収集し,前向きなタスク予測を生成する。
これらの予測は、ヒトのアノテータによって受け入れられるか拒否されるかのどちらかとしてラベル付けされる。
ラベル付きデータは、人間の判断をシミュレートする報酬モデルをトレーニングするために使用される。
論文 参考訳(メタデータ) (2024-10-16T08:24:09Z) - AI-LieDar: Examine the Trade-off Between Utility and Truthfulness in LLM Agents [27.10147264744531]
本研究では,Large Language Models (LLM) をベースとしたエージェントが,マルチターン対話環境でシナリオをナビゲートする方法について検討する。
エージェントの反応を評価するために,心理文献にヒントを得た真正性検知装置を開発した。
我々の実験は、すべてのモデルが50%未満の真理であることを示したが、真理性と目標達成率(実用性)はモデルによって異なる。
論文 参考訳(メタデータ) (2024-09-13T17:41:12Z) - Mental Modeling of Reinforcement Learning Agents by Language Models [14.668006477454616]
この研究は、いかに大きな言語モデルがエージェントのメンタルモデルを構築することができるか、初めて実証的に検証する。
本研究は, LLMを用いたRL剤の挙動解明の可能性を明らかにする。
論文 参考訳(メタデータ) (2024-06-26T17:14:45Z) - Knowledge Boundary and Persona Dynamic Shape A Better Social Media Agent [69.12885360755408]
パーソナライズされた知識と動的ペルソナ情報に基づくソーシャルメディアエージェントを構築する。
パーソナライズされた知識に対して、外部知識ソースを追加し、エージェントのペルソナ情報とマッチングすることにより、エージェントにパーソナライズされた世界知識を与える。
動的ペルソナ情報については、現在の行動情報を用いてエージェントのペルソナ情報を内部的に検索し、現在の行動に対する多様なペルソナ情報の干渉を低減する。
論文 参考訳(メタデータ) (2024-03-28T10:01:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。