論文の概要: Verification Required: The Impact of Information Credibility on AI Persuasion
- arxiv url: http://arxiv.org/abs/2602.00970v1
- Date: Sun, 01 Feb 2026 02:22:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.495064
- Title: Verification Required: The Impact of Information Credibility on AI Persuasion
- Title(参考訳): 検証が必要: 情報の信頼性がAIの説得に及ぼす影響
- Authors: Saaduddin Mahmud, Eugene Bagdasarian, Shlomo Zilberstein,
- Abstract要約: 情報信頼性をモデル化するLLM-to-LLMインタラクションのための戦略的コミュニケーションゲームであるMixTalkを紹介する。
我々は,3つの現実的な展開環境における大規模トーナメントにおける最先端のLLMエージェントの評価を行った。
本稿では,対話ログからトーナメントのオラクルポリシーを蒸留し,推論時にコンテキスト内に展開するオフライン手法であるTournament Oracle Policy Distillation (TOPD)を提案する。
- 参考スコア(独自算出の注目度): 13.454393198058398
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Agents powered by large language models (LLMs) are increasingly deployed in settings where communication shapes high-stakes decisions, making a principled understanding of strategic communication essential. Prior work largely studies either unverifiable cheap-talk or fully verifiable disclosure, failing to capture realistic domains in which information has probabilistic credibility. We introduce MixTalk, a strategic communication game for LLM-to-LLM interaction that models information credibility. In MixTalk, a sender agent strategically combines verifiable and unverifiable claims to communicate private information, while a receiver agent allocates a limited budget to costly verification and infers the underlying state from prior beliefs, claims, and verification outcomes. We evaluate state-of-the-art LLM agents in large-scale tournaments across three realistic deployment settings, revealing their strengths and limitations in reasoning about information credibility and the explicit behavior that shapes these interactions. Finally, we propose Tournament Oracle Policy Distillation (TOPD), an offline method that distills tournament oracle policy from interaction logs and deploys it in-context at inference time. Our results show that TOPD significantly improves receiver robustness to persuasion.
- Abstract(参考訳): 大規模言語モデル(LLM)を利用したエージェントは、コミュニケーションが高い意思決定を形作るような設定で、戦略的なコミュニケーションを原則的に理解するようになる。
従来の研究は、検証不可能な安価なトークか、完全に検証可能な開示のどちらかを研究しており、情報が確率的信頼性を持つ現実的な領域を捉えていない。
情報信頼性をモデル化するLLM-to-LLMインタラクションのための戦略的コミュニケーションゲームであるMixTalkを紹介する。
MixTalkでは、送信側エージェントは、検証不可能なクレームと検証不能なクレームを戦略的に組み合わせてプライベート情報を伝える一方、受信側エージェントは、コストのかかる検証のために限られた予算を割り当て、基礎となる状態を以前の信念、クレーム、検証結果から推測する。
我々は,3つの現実的な展開環境における大規模トーナメントにおける最先端のLLMエージェントの評価を行い,情報信頼性とこれらのインタラクションを形作る明示的な行動について,その強みと限界を明らかにした。
最後に,Tournament Oracle Policy Distillation (TOPD)を提案する。これは,対話ログからトーナメントのオラクルポリシーを蒸留し,推論時にコンテキスト内に展開するオフライン手法である。
以上の結果から,TOPDは難聴に対するレシーバロバスト性を大幅に改善することが示された。
関連論文リスト
- Trustworthy LLM-Mediated Communication: Evaluating Information Fidelity in LLM as a Communicator (LAAC) Framework in Multiple Application Domains [6.395778306248526]
本稿では,複数の通信領域にまたがるLAACの信頼性要件を体系的に評価する。
予備的な発見は、LAACが高信頼のコミュニケーションシナリオに確実に展開される前に対処しなければならない、測定可能な信頼ギャップを明らかにしている。
論文 参考訳(メタデータ) (2025-11-06T08:36:42Z) - Interact-RAG: Reason and Interact with the Corpus, Beyond Black-Box Retrieval [49.85856484781787]
本稿では,ILMエージェントを検索プロセスのアクティブマニピュレータに高める新しいパラダイムであるInteract-RAGを紹介する。
我々は、ゼロショット実行と相互作用軌跡の合成を可能にする推論強化ワークフローを開発する。
6つのベンチマーク実験により、Interact-RAGは他の高度な手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2025-10-31T15:48:43Z) - Strategic Communication under Threat: Learning Information Trade-offs in Pursuit-Evasion Games [21.58614507029022]
追跡エージェントが回避者の位置を得るためにいつ通信するかを判断しなければならないPursuitEvasion-Exposure-Concealment Game (PEEC) を定式化する。
双方のエージェントは強化学習を通じて行動方針を学習し、追跡者は観測可能性とリスクのバランスをとるコミュニケーション方針も学習する。
実験的な評価は、SHADOW追跡者が6つの競争基準よりも高い成功率を達成することを示している。
論文 参考訳(メタデータ) (2025-10-09T05:44:00Z) - In-Context Reinforcement Learning via Communicative World Models [49.00028802135605]
この研究は、2エージェントの緊急通信問題としてICRLを定式化する。
これは、転送可能な通信コンテキストを学ぶフレームワークであるCORALを紹介している。
実験により,本手法により,CAが試料効率を大幅に向上できることが実証された。
論文 参考訳(メタデータ) (2025-08-08T19:23:23Z) - Information Bargaining: Bilateral Commitment in Bayesian Persuasion [60.3761154043329]
長期的説得のための統一的なフレームワークとよく構造化されたソリューションの概念を導入する。
この視点はゲーム構造の共通知識を明確にし、レシーバに匹敵するコミットメント能力を与える。
このフレームワークは、2段階の検証と推論のパラダイムによって検証される。
論文 参考訳(メタデータ) (2025-06-06T08:42:34Z) - Robust Communicative Multi-Agent Reinforcement Learning with Active
Defense [38.6815513394882]
エージェントは、潜在的に有害なメッセージが最終決定に与える影響を自動的に軽減するアクティブ・ディフェンス戦略を提案する。
我々は、受信したメッセージの信頼性を推定し、最終決定への影響を調整するアクティブディフェンス・マルチエージェント通信フレームワーク(ADMAC)を設計する。
既存の手法よりもADMACの方が優れていることは、4種類の攻撃下での3つのコミュニケーションクリティカルなタスクの実験によって検証される。
論文 参考訳(メタデータ) (2023-12-16T09:02:56Z) - Certifiably Robust Policy Learning against Adversarial Communication in
Multi-agent Systems [51.6210785955659]
多くのマルチエージェント強化学習(MARL)では,エージェントが情報を共有し,適切な判断を下す上でコミュニケーションが重要である。
しかし、ノイズや潜在的な攻撃者が存在する現実世界のアプリケーションに訓練された通信エージェントを配置すると、通信ベースのポリシーの安全性は過小評価されている深刻な問題となる。
本研究では,攻撃者が任意の$CfracN-12$エージェントから被害者エージェントへの通信を任意に変更できる,$N$エージェントを備えた環境を検討する。
論文 参考訳(メタデータ) (2022-06-21T07:32:18Z) - Multi-Agent Adversarial Attacks for Multi-Channel Communications [24.576538640840976]
無線通信シナリオにおける敵をモデル化・解析するためのマルチエージェント・敵システム(MAAS)を提案する。
相手を学習エージェントとしてモデル化することにより,提案するMAASが,送信者戦略の事前知識を必要とせず,送信チャネルと割り当てされた各パワーを適切に選択可能であることを示す。
論文 参考訳(メタデータ) (2022-01-22T23:57:00Z) - Learning Selective Communication for Multi-Agent Path Finding [18.703918339797283]
決定因果通信(Decision Causal Communication、DCC)は、エージェントが隣人を選択して通信を行うためのシンプルで効率的なモデルである。
DCCは大規模問題を扱うために分散実行に適している。
論文 参考訳(メタデータ) (2021-09-12T03:07:20Z) - Learning to Communicate and Correct Pose Errors [75.03747122616605]
本稿では、V2VNetで提案された設定について検討し、近くにある自動運転車が共同で物体検出と動き予測を協調的に行う方法を提案する。
本稿では,コミュニケーションを学習し,潜在的な誤りを推定し,それらの誤りについてコンセンサスを得るための新しいニューラルネットワーク推論フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-10T18:19:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。