論文の概要: Verifiable Semantics for Agent-to-Agent Communication
- arxiv url: http://arxiv.org/abs/2602.16424v1
- Date: Wed, 18 Feb 2026 12:55:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-19 15:58:30.593415
- Title: Verifiable Semantics for Agent-to-Agent Communication
- Title(参考訳): エージェント対エージェント通信のための検証可能なセマンティクス
- Authors: Philipp Schoenegger, Matt Carlson, Chris Schneider, Chris Daly,
- Abstract要約: マルチエージェントAIシステムは一貫した通信を必要とする。
自然言語は解釈可能であるが、セマンティックドリフトに弱い。
そこで本研究では,刺激意味モデルに基づく認証プロトコルを提案する。
- 参考スコア(独自算出の注目度): 0.2866560512724962
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multiagent AI systems require consistent communication, but we lack methods to verify that agents share the same understanding of the terms used. Natural language is interpretable but vulnerable to semantic drift, while learned protocols are efficient but opaque. We propose a certification protocol based on the stimulus-meaning model, where agents are tested on shared observable events and terms are certified if empirical disagreement falls below a statistical threshold. In this protocol, agents restricting their reasoning to certified terms ("core-guarded reasoning") achieve provably bounded disagreement. We also outline mechanisms for detecting drift (recertification) and recovering shared vocabulary (renegotiation). In simulations with varying degrees of semantic divergence, core-guarding reduces disagreement by 72-96%. In a validation with fine-tuned language models, disagreement is reduced by 51%. Our framework provides a first step towards verifiable agent-to-agent communication.
- Abstract(参考訳): マルチエージェントAIシステムは一貫したコミュニケーションを必要とするが、エージェントが使用する用語の同じ理解を共有することを検証する方法がない。
自然言語は解釈可能であるが、セマンティックドリフトに弱いが、学習されたプロトコルは効率的だが不透明である。
本稿では,実験的不一致が統計的閾値を下回った場合,共有観測可能な事象に対してエージェントを試験し,条件を認定する刺激的モデルに基づく認証プロトコルを提案する。
このプロトコルでは、エージェントは彼らの推論を認定された用語("core-guarded reasoning")に制限し、証明可能な限定された意見の不一致を達成する。
また,ドリフト(再認識)の検出と共有語彙(再認識)の回復機構についても概説した。
セマンティックな違いの度合いの異なるシミュレーションでは、コアガードは不一致を72-96%減少させる。
微調整言語モデルによる検証では、不一致は51%減少する。
我々のフレームワークは、エージェント間通信を検証するための第一歩を提供します。
関連論文リスト
- Preventing the Collapse of Peer Review Requires Verification-First AI [49.995126139461085]
我々は、真理結合、すなわち、過度に科学的真理をトラックする場所のスコアの厳密さを提案する。
プロキシ・ソブリン評価に向けた相転移を駆動する2つの力の形式化を行う。
論文 参考訳(メタデータ) (2026-01-23T17:17:32Z) - Gaming the Judge: Unfaithful Chain-of-Thought Can Undermine Agent Evaluation [76.5533899503582]
大規模言語モデル(LLM)は、エージェントのパフォーマンスを評価するために、ますます裁判官として使われている。
このパラダイムは、エージェントのチェーン・オブ・シークレット(CoT)推論が内部の推論と環境状態の両方を忠実に反映していることを暗黙的に仮定している。
我々は、操作された推論だけで、様々なWebタスクにまたがる800の軌跡に対して、最先端のVLM審査員の偽陽性率を最大90%向上させることができることを実証した。
論文 参考訳(メタデータ) (2026-01-21T06:07:43Z) - VulAgent: Hypothesis-Validation based Multi-Agent Vulnerability Detection [55.957275374847484]
VulAgentは仮説検証に基づくマルチエージェント脆弱性検出フレームワークである。
セマンティクスに敏感なマルチビュー検出パイプラインを実装しており、それぞれが特定の分析の観点から一致している。
平均して、VulAgentは全体的な精度を6.6%改善し、脆弱性のある固定されたコードペアの正確な識別率を最大450%向上させ、偽陽性率を約36%削減する。
論文 参考訳(メタデータ) (2025-09-15T02:25:38Z) - Large Language Models for Validating Network Protocol Parsers [8.007994733372675]
プロトコル標準は一般的に自然言語で書かれるが、実装はソースコードで書かれている。
大規模言語モデル(LLM)に基づくフレームワークであるPARVALを提案する。
プロトコル標準とそれらの実装の両方を、フォーマット仕様と呼ばれる統一された中間表現に変換する。
実装とRFC標準の矛盾をうまく識別し、偽陽性率は5.6%と低い。
論文 参考訳(メタデータ) (2025-04-18T07:09:56Z) - VerifiAgent: a Unified Verification Agent in Language Model Reasoning [10.227089771963943]
本稿では,メタ検証とツールベース適応検証の2つのレベルを統合した統合検証エージェントを提案する。
VerifiAgentは推論型に基づいて適切な検証ツールを自律的に選択する。
推論スケーリングに効果的に適用でき、より少ないサンプルとコストでより良い結果が得られる。
論文 参考訳(メタデータ) (2025-04-01T04:05:03Z) - Detecting Backdoor Attacks via Similarity in Semantic Communication Systems [3.565151496245487]
本研究は, セマンティックな類似性を利用してバックドア攻撃を検出する防衛機構を提案する。
意味的特徴空間のずれを分析し,しきい値に基づく検出フレームワークを確立することにより,有毒な試料を効果的に同定する。
論文 参考訳(メタデータ) (2025-02-06T02:22:36Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Emergence of Pragmatics from Referential Game between Theory of Mind
Agents [64.25696237463397]
エージェントが手書きのルールを指定せずに「行間を読む」能力を自発的に学習するアルゴリズムを提案する。
協調型マルチエージェント教育状況における心の理論(ToM)を統合し,適応型強化学習(RL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-01-21T19:37:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。