論文の概要: Aegis: Towards Governance, Integrity, and Security of AI Voice Agents
- arxiv url: http://arxiv.org/abs/2602.07379v1
- Date: Sat, 07 Feb 2026 05:51:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.594615
- Title: Aegis: Towards Governance, Integrity, and Security of AI Voice Agents
- Title(参考訳): AI音声エージェントのガバナンス、統合、セキュリティを目指すAegis
- Authors: Xiang Li, Pin-Yu Chen, Wenqi Wei,
- Abstract要約: 音声エージェントのガバナンス,整合性,セキュリティのためのフレームワークであるAegisを提案する。
我々は,銀行コールセンタ,ITサポート,ロジスティクスにおけるケーススタディを通じて,この枠組みを評価する。
モデルファミリ間の系統的な差異を観察し,より感受性の高いオープンウェイトモデルを示した。
- 参考スコア(独自算出の注目度): 52.7512082818639
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the rapid advancement and adoption of Audio Large Language Models (ALLMs), voice agents are now being deployed in high-stakes domains such as banking, customer service, and IT support. However, their vulnerabilities to adversarial misuse still remain unexplored. While prior work has examined aspects of trustworthiness in ALLMs, such as harmful content generation and hallucination, systematic security evaluations of voice agents are still lacking. To address this gap, we propose Aegis, a red-teaming framework for the governance, integrity, and security of voice agents. Aegis models the realistic deployment pipeline of voice agents and designs structured adversarial scenarios of critical risks, including privacy leakage, privilege escalation, resource abuse, etc. We evaluate the framework through case studies in banking call centers, IT Support, and logistics. Our evaluation shows that while access controls mitigate data-level risks, voice agents remain vulnerable to behavioral attacks that cannot be addressed through access restrictions alone, even under strict access controls. We observe systematic differences across model families, with open-weight models exhibiting higher susceptibility, underscoring the need for layered defenses that combine access control, policy enforcement, and behavioral monitoring to secure next-generation voice agents.
- Abstract(参考訳): オーディオ大言語モデル(ALLM)の急速な進歩と採用により、ボイスエージェントは銀行、カスタマーサービス、ITサポートといった高度な領域にデプロイされている。
しかし、敵の誤用に対する脆弱性はまだ解明されていない。
先行研究は、有害なコンテンツ生成や幻覚など、ALMの信頼性の側面について検討してきたが、音声エージェントの体系的なセキュリティ評価はいまだに欠如している。
このギャップに対処するため、音声エージェントのガバナンス、完全性、セキュリティのための赤チームフレームワークであるAegisを提案する。
Aegisは、ボイスエージェントの現実的なデプロイメントパイプラインをモデル化し、プライバシの漏洩、特権のエスカレーション、リソースの乱用など、重要なリスクの敵対的シナリオを構造化する。
我々は,銀行コールセンタ,ITサポート,ロジスティクスにおけるケーススタディを通じて,この枠組みを評価する。
我々の評価では、アクセス制御はデータレベルのリスクを軽減するが、音声エージェントは厳格なアクセス制御下であっても、アクセス制限だけでは対処できない行動攻撃に弱いままである。
次世代音声エージェントの安全性を確保するために,アクセス制御,ポリシー施行,行動監視を併用した層状防御の必要性を強調し,より高い感受性を示すオープンウェイトモデルを用いて,モデルファミリ間の系統的差異を観察する。
関連論文リスト
- A Survey of Security Challenges and Solutions for UAS Traffic Management (UTM) and small Unmanned Aerial Systems (sUAS) [25.67972631925627]
民間および商業ミッション用の小型無人航空システム(sUAS)は、サイバーセキュリティの脅威に対して脆弱である。
本稿では, サイバーセキュリティの脆弱性と, sUAS と UTM のエコシステムに合わせた防御について, 包括的調査を行った。
論文 参考訳(メタデータ) (2026-01-13T05:18:49Z) - OS-Sentinel: Towards Safety-Enhanced Mobile GUI Agents via Hybrid Validation in Realistic Workflows [77.95511352806261]
VLM(Vision-Language Models)を利用したコンピュータ利用エージェントは、モバイルプラットフォームのようなデジタル環境を操作する上で、人間のような能力を実証している。
我々は,明示的なシステムレベルの違反を検出するための形式検証器と,文脈的リスクとエージェント行動を評価するコンテキスト判断器を組み合わせた,新しいハイブリッド安全検出フレームワークOS-Sentinelを提案する。
論文 参考訳(メタデータ) (2025-10-28T13:22:39Z) - Security Challenges in AI Agent Deployment: Insights from a Large Scale Public Competition [101.86739402748995]
44の現実的なデプロイメントシナリオを対象とした,22のフロンティアAIエージェントを対象にしています。
Agent Red Teamingベンチマークを構築し、19の最先端モデルで評価します。
私たちの発見は、今日のAIエージェントの重要かつ永続的な脆弱性を浮き彫りにしたものです。
論文 参考訳(メタデータ) (2025-07-28T05:13:04Z) - SafeMobile: Chain-level Jailbreak Detection and Automated Evaluation for Multimodal Mobile Agents [58.21223208538351]
本研究は,モバイルマルチモーダルエージェントを取り巻くセキュリティ問題について考察する。
行動シーケンス情報を組み込んだリスク識別機構の構築を試みる。
また、大規模言語モデルに基づく自動アセスメントスキームも設計している。
論文 参考訳(メタデータ) (2025-07-01T15:10:00Z) - A Novel Zero-Trust Identity Framework for Agentic AI: Decentralized Authentication and Fine-Grained Access Control [7.228060525494563]
本稿では,Agentic AI IAMフレームワークの提案について述べる。
リッチで検証可能なエージェント識別子(ID)に基づく包括的フレームワークを提案する。
また、Zero-Knowledge Proofs(ZKPs)によって、プライバシ保護属性の開示と検証可能なポリシーコンプライアンスを実現する方法について検討する。
論文 参考訳(メタデータ) (2025-05-25T20:21:55Z) - Information Retrieval Induced Safety Degradation in AI Agents [52.15553901577888]
本研究では,検索アクセスの拡大がモデル信頼性,バイアス伝搬,有害コンテンツ生成に与える影響について検討した。
整列 LLM 上に構築された検索可能なエージェントは、検索なしでの無検閲モデルよりも安全でない振る舞いをすることが多い。
これらの発見は、検索可能でますます自律的なAIシステムの公正性と信頼性を確保するための堅牢な緩和戦略の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-05-20T11:21:40Z) - Towards Trustworthy GUI Agents: A Survey [64.6445117343499]
本調査では,GUIエージェントの信頼性を5つの重要な次元で検証する。
敵攻撃に対する脆弱性、シーケンシャルな意思決定における障害モードのカスケードなど、大きな課題を特定します。
GUIエージェントが普及するにつれて、堅牢な安全基準と責任ある開発プラクティスを確立することが不可欠である。
論文 参考訳(メタデータ) (2025-03-30T13:26:00Z) - Autonomous Identity-Based Threat Segmentation in Zero Trust Architectures [4.169915659794567]
Zero Trust Architectures (ZTA) は,"信頼せず,すべてを検証する" アプローチを採用することで,ネットワークセキュリティを根本的に再定義する。
本研究は、ZTAにおけるAI駆動型、自律型、アイデンティティベースの脅威セグメンテーションに適用する。
論文 参考訳(メタデータ) (2025-01-10T15:35:02Z) - Enhancing Enterprise Security with Zero Trust Architecture [0.0]
Zero Trust Architecture (ZTA) は、現代のサイバーセキュリティに対する変革的なアプローチである。
ZTAは、ユーザ、デバイス、システムがデフォルトで信頼できないことを前提として、セキュリティパラダイムをシフトする。
本稿では、アイデンティティとアクセス管理(IAM)、マイクロセグメンテーション、継続的監視、行動分析など、ZTAの重要なコンポーネントについて検討する。
論文 参考訳(メタデータ) (2024-10-23T21:53:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。