論文の概要: VIGIL: Towards Edge-Extended Agentic AI for Enterprise IT Support
- arxiv url: http://arxiv.org/abs/2603.16110v1
- Date: Tue, 17 Mar 2026 04:24:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:07.098488
- Title: VIGIL: Towards Edge-Extended Agentic AI for Enterprise IT Support
- Title(参考訳): VIGIL: エンタープライズITサポートのためのエッジ拡張エージェントAIを目指す
- Authors: Sarthak Ahuja, Neda Kordjazi, Evren Yortucboylu, Vishaal Kapoor, Mariam Dundua, Yiming Li, Derek Ho, Vaibhavi Padala, Jennifer Whitted, Rebecca Steinert,
- Abstract要約: VIGILはエッジ拡張型エージェントAIシステムで、デスクトップ常駐エージェントを配置して、位置診断、企業知識の検索、およびポリシーを優先した修復を、明示的な同意とエンドツーエンドの可観測性を持って、ユーザデバイス上で直接行う。
VIGILの100のリソース制約されたエンドポイント上での運用ループを10週間のパイロットテストで、VIGILはインタラクションラウンドを39%削減し、少なくとも4倍高速な診断を実現し、マッチしたケースの82%でセルフサービス解決をサポートする。
利用者は、4つの検証済み機器にまたがる優れたユーザビリティ、高い信頼、低認知負荷を報告し、質的なフィードバックは透明性を強調している。
- 参考スコア(独自算出の注目度): 7.77807923684412
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Enterprise IT support is constrained by heterogeneous devices, evolving policies, and long-tail failure modes that are difficult to resolve centrally. We present VIGIL, an edge-extended agentic AI system that deploys desktop-resident agents to perform situated diagnosis, retrieval over enterprise knowledge, and policy-governed remediation directly on user devices with explicit consent and end-to-end observability. In a 10-week pilot of VIGIL's operational loop on 100 resource-constrained endpoints, VIGIL reduces interaction rounds by 39%, achieves at least 4 times faster diagnosis, and supports self-service resolution in 82% of matched cases. Users report excellent usability, high trust, and low cognitive workload across four validated instruments, with qualitative feedback highlighting transparency as critical for trust. Notably, users rated the system higher when no historical matches were available, suggesting on-device diagnosis provides value independent of knowledge base coverage. This pilot establishes safety and observability foundations for fleet-wide continuous improvement.
- Abstract(参考訳): エンタープライズITサポートは、不均一なデバイス、進化するポリシー、集中的に解決するのが困難な長い障害モードによって制限されている。
VIGILはエッジ拡張型エージェントAIシステムで、デスクトップ常駐エージェントを配置して、位置診断、企業知識の検索、およびポリシーを優先した修復を、明示的な同意とエンドツーエンドの可観測性を持って、ユーザデバイス上で直接行う。
VIGILの100のリソース制約されたエンドポイント上での運用ループを10週間のパイロットテストで、VIGILはインタラクションラウンドを39%削減し、少なくとも4倍高速な診断を実現し、マッチしたケースの82%でセルフサービス解決をサポートする。
ユーザは、4つの検証済み機器にまたがる優れたユーザビリティ、高い信頼、低認知的ワークロードを報告します。
特に、歴史的一致が得られなかった場合、ユーザーはシステムを高く評価し、デバイス上の診断が知識ベースカバレッジに依存しない価値を提供することを示唆している。
このパイロットは、艦隊全体の継続的な改善のための安全と可観測性の基礎を確立する。
関連論文リスト
- Device-Native Autonomous Agents for Privacy-Preserving Negotiations [0.0]
本研究では,プライバシ保護交渉のためのデバイスネイティブな自律人工知能(AI)エージェントシステムを紹介する。
提案システムでは,ユーザハードウェアのみで動作するため,時間的制約をローカルに保ちながらリアルタイムの交渉が可能となる。
その結果、平均成功率は87%、クラウドベースラインよりも2.4倍のレイテンシ向上、ゼロ知識証明による強力なプライバシ保護が示されている。
論文 参考訳(メタデータ) (2026-01-01T04:29:39Z) - The Trust in AI-Generated Health Advice (TAIGHA) Scale and Short Version (TAIGHA-S): Development and Validation Study [1.0112913394578702]
本研究は,AI生成型ヘルスアドバイザ(TAIGHA)尺度とその4項目短縮形(TAIGHA-S)の開発と検証を行った。
項目は生成AIアプローチを使用して開発され、続いて10のドメインエキスパートによるコンテンツ検証、30人のレイ参加者による顔検証、および症状評価シナリオでAI生成アドバイスを受けた385人の英国参加者による心理測定検証が実施された。
論文 参考訳(メタデータ) (2025-12-16T10:40:07Z) - OS-Sentinel: Towards Safety-Enhanced Mobile GUI Agents via Hybrid Validation in Realistic Workflows [77.95511352806261]
VLM(Vision-Language Models)を利用したコンピュータ利用エージェントは、モバイルプラットフォームのようなデジタル環境を操作する上で、人間のような能力を実証している。
我々は,明示的なシステムレベルの違反を検出するための形式検証器と,文脈的リスクとエージェント行動を評価するコンテキスト判断器を組み合わせた,新しいハイブリッド安全検出フレームワークOS-Sentinelを提案する。
論文 参考訳(メタデータ) (2025-10-28T13:22:39Z) - When Hallucination Costs Millions: Benchmarking AI Agents in High-Stakes Adversarial Financial Markets [0.3069921776214295]
AI評価において重要な盲点を明らかにするベンチマークであるCAIAを提示する。
我々は178の時間短縮タスクに対して17のモデルを評価し,真理と操作の区別をエージェントに要求した。
ツールがなければ、フロンティアモデルでさえ、ジュニアアナリストが日常的に扱うタスクにおいて28%の精度しか達成できません。
論文 参考訳(メタデータ) (2025-09-30T22:39:06Z) - Eigen-1: Adaptive Multi-Agent Refinement with Monitor-Based RAG for Scientific Reasoning [53.45095336430027]
暗黙的な検索と構造化された協調を組み合わせた統合フレームワークを開発する。
Humanity's Last Exam (HLE) Bio/Chem Goldでは,48.3%の精度を実現している。
SuperGPQAとTRQAの結果はドメイン間の堅牢性を確認した。
論文 参考訳(メタデータ) (2025-09-25T14:05:55Z) - Beyond Benchmarks: Dynamic, Automatic And Systematic Red-Teaming Agents For Trustworthy Medical Language Models [87.66870367661342]
大規模言語モデル(LLM)は、医療におけるAIアプリケーションで使用される。
LLMを継続的にストレステストするレッドチームフレームワークは、4つのセーフティクリティカルなドメインで重大な弱点を明らかにすることができる。
敵エージェントのスイートは、自律的に変化するテストケースに適用され、安全でないトリガー戦略を特定し、評価する。
私たちのフレームワークは、進化可能でスケーラブルで信頼性の高い、次世代の医療AIのセーフガードを提供します。
論文 参考訳(メタデータ) (2025-07-30T08:44:22Z) - Security Challenges in AI Agent Deployment: Insights from a Large Scale Public Competition [101.86739402748995]
44の現実的なデプロイメントシナリオを対象とした,22のフロンティアAIエージェントを対象にしています。
Agent Red Teamingベンチマークを構築し、19の最先端モデルで評価します。
私たちの発見は、今日のAIエージェントの重要かつ永続的な脆弱性を浮き彫りにしたものです。
論文 参考訳(メタデータ) (2025-07-28T05:13:04Z) - Towards Scalable Defenses against Intimate Partner Infiltrations [9.694038607827169]
Intimate Partner Infiltration (IPI) は、身近な近さと個人的知識を活用し、標準的保護を回避する。
スマートフォン上での不正アクセスや不審な動作を継続的に監視する自動IPI検出システムであるAIDを提案する。
AIDは、既存手法の11倍低い1.6%の偽陽性率と、エンドツーエンドのF1スコア0.981の、非所有者アクセスおよび細粒なIPI関連アクティビティを高精度に検出する。
論文 参考訳(メタデータ) (2025-02-06T00:07:08Z) - Criticality and Safety Margins for Reinforcement Learning [53.10194953873209]
我々は,定量化基盤真理とユーザにとっての明確な意義の両面から,批判的枠組みを定めようとしている。
エージェントがn連続的ランダム動作に対するポリシーから逸脱した場合の報酬の減少として真臨界を導入する。
我々はまた、真の臨界と統計的に単調な関係を持つ低オーバーヘッド計量であるプロキシ臨界の概念も導入する。
論文 参考訳(メタデータ) (2024-09-26T21:00:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。