論文の概要: Device-Native Autonomous Agents for Privacy-Preserving Negotiations
- arxiv url: http://arxiv.org/abs/2601.00911v1
- Date: Thu, 01 Jan 2026 04:29:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:21.845289
- Title: Device-Native Autonomous Agents for Privacy-Preserving Negotiations
- Title(参考訳): プライバシ保護ネゴシエーションのためのデバイス依存型自律エージェント
- Authors: Joyjit Roy,
- Abstract要約: 本研究では,プライバシ保護交渉のためのデバイスネイティブな自律人工知能(AI)エージェントシステムを紹介する。
提案システムでは,ユーザハードウェアのみで動作するため,時間的制約をローカルに保ちながらリアルタイムの交渉が可能となる。
その結果、平均成功率は87%、クラウドベースラインよりも2.4倍のレイテンシ向上、ゼロ知識証明による強力なプライバシ保護が示されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated negotiations in insurance and business-to-business (B2B) commerce encounter substantial challenges. Current systems force a trade-off between convenience and privacy by routing sensitive financial data through centralized servers, increasing security risks, and diminishing user trust. This study introduces a device-native autonomous Artificial Intelligence (AI) agent system for privacy-preserving negotiations. The proposed system operates exclusively on user hardware, enabling real-time bargaining while maintaining sensitive constraints locally. It integrates zero-knowledge proofs to ensure privacy and employs distilled world models to support advanced on-device reasoning. The architecture incorporates six technical components within an agentic AI workflow. Agents autonomously plan negotiation strategies, conduct secure multi-party bargaining, and generate cryptographic audit trails without exposing user data to external servers. The system is evaluated in insurance and B2B procurement scenarios across diverse device configurations. Results show an average success rate of 87%, a 2.4x latency improvement over cloud baselines, and strong privacy preservation through zero-knowledge proofs. User studies show 27% higher trust scores when decision trails are available. These findings establish a foundation for trustworthy autonomous agents in privacy-sensitive financial domains.
- Abstract(参考訳): 保険とビジネス・ツー・ビジネス(B2B)の商業における自動交渉は、重大な課題に直面している。
現在のシステムは、機密性の高い金融データを集中型サーバにルーティングし、セキュリティリスクを増大させ、ユーザーの信頼を低下させることで、利便性とプライバシのトレードオフを強いる。
本研究では,プライバシ保護交渉のためのデバイスネイティブな自律人工知能(AI)エージェントシステムを紹介する。
提案システムでは,ユーザハードウェアのみで動作するため,時間的制約をローカルに保ちながらリアルタイムの交渉が可能となる。
プライバシーを確保するためにゼロ知識証明を統合し、先進的なオンデバイス推論をサポートするために蒸留された世界モデルを採用している。
アーキテクチャにはエージェントAIワークフローに6つの技術コンポーネントが含まれている。
エージェントは、交渉戦略を自律的に計画し、安全なマルチパーティの交渉を行い、外部サーバにユーザデータを公開せずに暗号化監査証跡を生成する。
このシステムは、多様なデバイス構成にわたる保険およびB2B調達シナリオで評価される。
その結果、平均成功率は87%、クラウドベースラインよりも2.4倍のレイテンシ向上、ゼロ知識証明による強力なプライバシ保護が示されている。
ユーザスタディでは、意思決定パスが利用可能になった場合、信頼スコアが27%向上している。
これらの知見は、プライバシーに敏感な金融分野における信頼できる自律エージェントの基礎を確立している。
関連論文リスト
- Trusted AI Agents in the Cloud [4.2366483628004366]
Omegaは、エンドツーエンドのアイソレーションを強制することによって、信頼できるAIエージェントを可能にするシステムである。
クロスプリンシパル信頼確立による効率的なマルチエージェントオーケストレーションを提供する。
クラウドスケールでの高密度でポリシーに準拠したマルチエージェントデプロイメントを実現すると同時に、高いパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-12-05T18:48:53Z) - Local Hybrid Retrieval-Augmented Document QA [0.0]
クラウドベースのAIシステムを採用するが、データのプライバシを侵害する、あるいはセキュリティを保証するが精度の低いローカル処理を維持する。
意味理解とキーワードの精度を組み合わせた質問応答システムを提案する。
論文 参考訳(メタデータ) (2025-11-13T13:34:32Z) - Making LLMs Reliable When It Matters Most: A Five-Layer Architecture for High-Stakes Decisions [51.56484100374058]
現在の大規模言語モデル(LLM)は、実行前にアウトプットをチェックできるが、不確実な結果を伴う高い戦略決定には信頼性が低い検証可能な領域で優れている。
このギャップは、人間と人工知能(AI)システムの相互認知バイアスによって引き起こされ、そのセクターにおける評価と投資の持続可能性の保証を脅かす。
本報告では、7つのフロンティアグレードLDMと3つの市場向けベンチャーヴィグネットの時間的圧力下での系統的質的評価から生まれた枠組みについて述べる。
論文 参考訳(メタデータ) (2025-11-10T22:24:21Z) - What's the next frontier for Data-centric AI? Data Savvy Agents [71.76058707995398]
我々は、エージェントシステムの設計において、データに精通する能力が最優先すべきであると主張している。
本稿では,このビジョンを実現するための4つの重要な機能を提案する。プロアクティブデータ取得,ソフシフィケートデータ処理,インタラクティブテストデータ合成,連続的適応。
論文 参考訳(メタデータ) (2025-11-02T17:09:29Z) - OS-Sentinel: Towards Safety-Enhanced Mobile GUI Agents via Hybrid Validation in Realistic Workflows [77.95511352806261]
VLM(Vision-Language Models)を利用したコンピュータ利用エージェントは、モバイルプラットフォームのようなデジタル環境を操作する上で、人間のような能力を実証している。
我々は,明示的なシステムレベルの違反を検出するための形式検証器と,文脈的リスクとエージェント行動を評価するコンテキスト判断器を組み合わせた,新しいハイブリッド安全検出フレームワークOS-Sentinelを提案する。
論文 参考訳(メタデータ) (2025-10-28T13:22:39Z) - Security Challenges in AI Agent Deployment: Insights from a Large Scale Public Competition [101.86739402748995]
44の現実的なデプロイメントシナリオを対象とした,22のフロンティアAIエージェントを対象にしています。
Agent Red Teamingベンチマークを構築し、19の最先端モデルで評価します。
私たちの発見は、今日のAIエージェントの重要かつ永続的な脆弱性を浮き彫りにしたものです。
論文 参考訳(メタデータ) (2025-07-28T05:13:04Z) - Towards Secure and Private AI: A Framework for Decentralized Inference [14.526663289437584]
大規模マルチモーダル基盤モデルは、スケーラビリティ、信頼性、潜在的な誤用に関する課題を提示する。
分散システムは、ワークロードの分散と障害の中心的なポイントの緩和によるソリューションを提供する。
これらの課題に対処するためには、AI開発に責任を負うように設計された包括的なフレームワークを使います。
論文 参考訳(メタデータ) (2024-07-28T05:09:17Z) - Confidential Federated Computations [16.415880530250092]
Federated Learning and Analytics (FLA)は、デバイス上の機密データを処理するためのテクノロジプラットフォームによって広く採用されている。
FLAシステムは必ずしも差分プライバシー(DP)のような匿名化機構を必要としない
本稿では,サーバサイドの計算の秘密性を確保するために,TEEとオープンソースを活用した新しいシステムアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-04-16T17:47:27Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Trustworthy AI Inference Systems: An Industry Research View [58.000323504158054]
我々は、信頼できるAI推論システムの設計、展開、運用にアプローチするための業界調査ビューを提供する。
信頼された実行環境を用いたAIシステムの機会と課題を強調します。
我々は,産業,アカデミック,政府研究者のグローバルな集団的注意を必要とする,さらなる発展の分野を概説する。
論文 参考訳(メタデータ) (2020-08-10T23:05:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。