論文の概要: aCAPTCHA: Verifying That an Entity Is a Capable Agent via Asymmetric Hardness
- arxiv url: http://arxiv.org/abs/2603.07116v1
- Date: Sat, 07 Mar 2026 09:00:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:13.888381
- Title: aCAPTCHA: Verifying That an Entity Is a Capable Agent via Asymmetric Hardness
- Title(参考訳): aCAPTCHA: エンティティが非対称硬度による有能なエージェントであることを検証する
- Authors: Zuyao Xu, Xiang Li, Fubin Wu, Yuqi Qiu, Lu Sun, FaSheng Miao,
- Abstract要約: 「このエンティティはAIエージェントですか?」は、確立されたソリューションのない新しいエンティティタイプの検証問題です。
ACAPTCHAは、エンティティタイプの検証が必要なサービスに対して、構成可能でインフラストラクチャフリーな受け入れゲートを提供する。
- 参考スコア(独自算出の注目度): 5.119165077129504
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As autonomous AI agents increasingly populate the Internet, a novel security challenge arises: "Is this entity an AI agent?" It is a new entity-type verification problem with no established solution. We formalize the problem through a three-class entity taxonomy (Human, Script, Agent) based on a verifiable agentic capability vector <x, r, s> (action, reasoning, and memory). A timing threshold t exploits the asymmetric hardness between human cognition and AI processing to separate the three classes. We define the Agentic Capability Verification Problem (ACVP) through three necessity primitives, each testing one capability dimension. Building on this foundation, we introduce aCAPTCHA (Agent CAPTCHA), a time-constrained security game for agent admission whose security rests on ACVP hardness under t. We instantiate aCAPTCHA through time-bounded natural-language understanding as a multi-round HTTP verification protocol, and evaluate it with preliminary agent trials that validate the protocol's soundness and completeness. aCAPTCHA provides a composable, infrastructure-free admission gate for any service where entity-type verification is required.
- Abstract(参考訳): 自律型AIエージェントがインターネットを席巻するにつれ、新たなセキュリティ上の課題が発生する。
これは、確立された解決方法のない新しいエンティティ型検証問題である。
検証可能なエージェント能力ベクトル <x, r, s> (アクション, 推論, 記憶) に基づいて, 3階層の分類法 (Human, Script, Agent) を用いて問題を定式化する。
タイミング閾値tは、人間の認識とAI処理の間の非対称な硬さを利用して、3つのクラスを分離する。
エージェント能力検証問題(ACVP)を3つの必須プリミティブを通じて定義し,それぞれが1つの機能ディメンションをテストする。
この基盤の上に構築されたCAPTCHA(Agent CAPTCHA)は, エージェントの入場を制限した時間制限型セキュリティゲームであり, セキュリティは t 下での ACVP の硬さに依存している。
我々は,複数ラウンドのHTTP検証プロトコルとして,時間境界の自然言語理解を通じてaCAPTCHAをインスタンス化し,プロトコルの健全性と完全性を検証する予備的エージェントトライアルで評価する。
aCAPTCHAは、エンティティタイプの検証が必要なサービスに対して、構成可能でインフラストラクチャフリーな受け入れゲートを提供する。
関連論文リスト
- OMNI-LEAK: Orchestrator Multi-Agent Network Induced Data Leakage [59.3826294523924]
オーケストレータ設定として知られる,一般的なマルチエージェントパターンのセキュリティ脆弱性について検討する。
本報告では,フロンティアモデルの攻撃カテゴリに対する感受性を報告し,推論モデルと非推論モデルの両方が脆弱であることが確認された。
論文 参考訳(メタデータ) (2026-02-13T21:32:32Z) - Beyond Context Sharing: A Unified Agent Communication Protocol (ACP) for Secure, Federated, and Autonomous Agent-to-Agent (A2A) Orchestration [0.0]
本稿ではエージェント通信プロトコル(ACP)を紹介する。
ACPはAgent-to-Agentインタラクションのための標準化されたフレームワークを提供する。
ACPは、ゼロトラストのセキュリティ姿勢を維持しながら、エージェント間通信のレイテンシを%削減する。
論文 参考訳(メタデータ) (2026-02-11T17:02:12Z) - AgentIF-OneDay: A Task-level Instruction-Following Benchmark for General AI Agents in Daily Scenarios [49.90735676070039]
持続時間と複雑さが増大するタスクを効果的に処理するAIエージェントの能力は、成長を続けている。
エージェントタスクの多様性に十分対処することなく,タスクの難易度の向上を優先している。
本稿では,自然言語命令とAIエージェントを多種多様な日常タスクに活用できるかどうかを判定するエージェントIF-OneDayを提案する。
論文 参考訳(メタデータ) (2026-01-28T13:49:18Z) - Spatial CAPTCHA: Generatively Benchmarking Spatial Reasoning for Human-Machine Differentiation [15.668734718800065]
本研究では,人間とMLLMの空間的推論における基本的差異を生かした,新しい人間検証フレームワークを提案する。
現代のAIに弱い低レベルの知覚タスクに依存する既存のCAPTCHAとは異なり、空間CAPTCHAは幾何学的推論、視点取り、精神的回転を必要とする動的質問を生成する。
対応するベンチマークであるSpatial-CAPTCHA-Benchでは、人間が10の最先端MLLMをはるかに上回り、最高のモデルは31.0%のPass@1精度しか達成していないことが示されている。
論文 参考訳(メタデータ) (2025-10-04T16:19:21Z) - The STAR-XAI Protocol: A Framework for Inducing and Verifying Agency, Reasoning, and Reliability in AI Agents [0.0]
大きな推論モデルの「ブラックボックス」の性質は、信頼性と透明性の限界を示す。
本稿では,信頼性の高いAIエージェントをトレーニングし,運用するための新たな運用方法論であるSTAR-XAIプロトコルを紹介する。
我々の方法は、明示的で進化する象徴的ルールブックによって支配される構造化ソクラテス的対話として、人間とAIの相互作用を再編成する。
論文 参考訳(メタデータ) (2025-09-22T16:24:17Z) - BlindGuard: Safeguarding LLM-based Multi-Agent Systems under Unknown Attacks [58.959622170433725]
BlindGuardは、攻撃固有のラベルや悪意のある振る舞いに関する事前の知識を必要とせずに学習する、教師なしの防御方法である。
BlindGuardはマルチエージェントシステムにまたがる多様な攻撃タイプ(即時注入、メモリ中毒、ツール攻撃)を効果的に検出する。
論文 参考訳(メタデータ) (2025-08-11T16:04:47Z) - A Novel Zero-Trust Identity Framework for Agentic AI: Decentralized Authentication and Fine-Grained Access Control [7.228060525494563]
本稿では,Agentic AI IAMフレームワークの提案について述べる。
リッチで検証可能なエージェント識別子(ID)に基づく包括的フレームワークを提案する。
また、Zero-Knowledge Proofs(ZKPs)によって、プライバシ保護属性の開示と検証可能なポリシーコンプライアンスを実現する方法について検討する。
論文 参考訳(メタデータ) (2025-05-25T20:21:55Z) - A Survey of Adversarial CAPTCHAs on its History, Classification and
Generation [69.36242543069123]
本稿では, 逆CAPTCHAの定義を拡張し, 逆CAPTCHAの分類法を提案する。
また, 敵CAPTCHAの防御に使用可能な防御方法も分析し, 敵CAPTCHAに対する潜在的な脅威を示す。
論文 参考訳(メタデータ) (2023-11-22T08:44:58Z) - Robust Text CAPTCHAs Using Adversarial Examples [129.29523847765952]
Robust Text CAPTCHA (RTC) という,ユーザフレンドリーなテキストベースのCAPTCHA生成法を提案する。
第1段階では、前景と背景はランダムにサンプルされたフォントと背景画像で構成される。
第2段階では、CAPTCHAの解法をより妨害するために、高転送可能な逆攻撃をテキストCAPTCHAに適用する。
論文 参考訳(メタデータ) (2021-01-07T11:03:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。