論文の概要: Towards Secure and Private AI: A Framework for Decentralized Inference
- arxiv url: http://arxiv.org/abs/2407.19401v2
- Date: Thu, 12 Dec 2024 18:10:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-13 17:01:34.441958
- Title: Towards Secure and Private AI: A Framework for Decentralized Inference
- Title(参考訳): セキュアとプライベートAIを目指して - 分散推論のためのフレームワーク
- Authors: Hongyang Zhang, Yue Zhao, Claudio Angione, Harry Yang, James Buban, Ahmad Farhan, Fielding Johnston, Patrick Colangelo,
- Abstract要約: 大規模マルチモーダル基盤モデルは、スケーラビリティ、信頼性、潜在的な誤用に関する課題を提示する。
分散システムは、ワークロードの分散と障害の中心的なポイントの緩和によるソリューションを提供する。
これらの課題に対処するためには、AI開発に責任を負うように設計された包括的なフレームワークを使います。
- 参考スコア(独自算出の注目度): 14.526663289437584
- License:
- Abstract: The rapid advancement of ML models in critical sectors such as healthcare, finance, and security has intensified the need for robust data security, model integrity, and reliable outputs. Large multimodal foundational models, while crucial for complex tasks, present challenges in scalability, reliability, and potential misuse. Decentralized systems offer a solution by distributing workload and mitigating central points of failure, but they introduce risks of unauthorized access to sensitive data across nodes. We address these challenges with a comprehensive framework designed for responsible AI development. Our approach incorporates: 1) Zero-knowledge proofs for secure model verification, enhancing trust without compromising privacy. 2) Consensus-based verification checks to ensure consistent outputs across nodes, mitigating hallucinations and maintaining model integrity. 3) Split Learning techniques that segment models across different nodes, preserving data privacy by preventing full data access at any point. 4) Hardware-based security through trusted execution environments (TEEs) to protect data and computations. This framework aims to enhance security and privacy and improve the reliability and fairness of multimodal AI systems. Promoting efficient resource utilization contributes to more sustainable AI development. Our state-of-the-art proofs and principles demonstrate the framework's effectiveness in responsibly democratizing artificial intelligence, offering a promising approach for building secure and private foundational models.
- Abstract(参考訳): 医療、金融、セキュリティといった重要な分野におけるMLモデルの急速な進歩は、堅牢なデータセキュリティ、モデルの完全性、信頼性のあるアウトプットの必要性を増している。
大規模なマルチモーダル基盤モデルは、複雑なタスクには不可欠だが、スケーラビリティ、信頼性、潜在的な誤用に関する課題を提示する。
分散システムは、ワークロードの分散と障害点の緩和によるソリューションを提供するが、ノード間の機密データへの不正アクセスのリスクを導入する。
これらの課題に対処するためには、AI開発に責任を負うように設計された包括的なフレームワークを使います。
私たちのアプローチは以下のとおりです。
1) 安全なモデル検証のためのゼロ知識証明, プライバシーを損なうことなく信頼を高めること。
2)合意に基づく検証は,ノード間の一貫したアウトプットの確保,幻覚の緩和,モデルの整合性維持に有効である。
3) 異なるノード間でモデルをセグメンテーションし、任意の時点で完全なデータアクセスを防止してデータのプライバシを保存する、分割学習技術。
4) 信頼された実行環境(TEE)によるハードウェアベースのセキュリティにより、データと計算を保護する。
このフレームワークは、セキュリティとプライバシを強化し、マルチモーダルAIシステムの信頼性と公平性を改善することを目的としている。
効率的な資源利用を促進することは、より持続可能なAI開発に寄与する。
私たちの最先端の証明と原則は、人工知能を責任を持って民主化するフレームワークの有効性を示し、セキュアでプライベートな基礎モデルを構築するための有望なアプローチを提供します。
関連論文リスト
- Safety at Scale: A Comprehensive Survey of Large Model Safety [299.801463557549]
我々は、敵攻撃、データ中毒、バックドア攻撃、ジェイルブレイクとプロンプトインジェクション攻撃、エネルギー遅延攻撃、データとモデル抽出攻撃、出現するエージェント固有の脅威を含む、大規模なモデルに対する安全脅威の包括的分類を提示する。
我々は、大規模なモデル安全性におけるオープンな課題を特定し、議論し、包括的な安全性評価、スケーラブルで効果的な防御機構、持続可能なデータプラクティスの必要性を強調します。
論文 参考訳(メタデータ) (2025-02-02T05:14:22Z) - Towards Robust Stability Prediction in Smart Grids: GAN-based Approach under Data Constraints and Adversarial Challenges [53.2306792009435]
本稿では,安定したデータのみを用いて,スマートグリッドの不安定性を検出する新しいフレームワークを提案する。
ジェネレータはGAN(Generative Adversarial Network)に依存しており、ジェネレータは不安定なデータを生成するために訓練される。
我々の解は、実世界の安定と不安定なサンプルからなるデータセットでテストされ、格子安定性の予測において最大97.5%、敵攻撃の検出において最大98.9%の精度を達成する。
論文 参考訳(メタデータ) (2025-01-27T20:48:25Z) - Model Agnostic Hybrid Sharding For Heterogeneous Distributed Inference [11.39873199479642]
Nesaは、分散AI推論用に設計されたモデルに依存しないシャーディングフレームワークを導入した。
私たちのフレームワークでは、ブロックチェーンベースのディープニューラルネットワークシャーディングを使用して、さまざまなノードネットワークに計算タスクを分散しています。
われわれの結果は、最先端のAI技術へのアクセスを民主化する可能性を強調している。
論文 参考訳(メタデータ) (2024-07-29T08:18:48Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - A Trustworthy AIoT-enabled Localization System via Federated Learning and Blockchain [29.968086297894626]
そこで我々はDFLocというフレームワークを提案し,正確な3Dローカライゼーションを実現する。
具体的には、信頼性が高く正確な屋内位置決めシステムにおける単一点故障の問題に対処する。
悪意のあるノード攻撃の懸念を軽減するため、ブロックチェーン内にモデル検証機構を更新する。
論文 参考訳(メタデータ) (2024-07-08T04:14:19Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - Securing Federated Learning with Control-Flow Attestation: A Novel Framework for Enhanced Integrity and Resilience against Adversarial Attacks [2.28438857884398]
分散機械学習パラダイムとしてのフェデレートラーニング(FL)は、新たなサイバーセキュリティ課題を導入した。
本研究では,従来サイバーセキュリティに用いられてきた制御フロー(CFA)機構にインスパイアされた,革新的なセキュリティフレームワークを提案する。
我々は、ネットワーク全体にわたるモデル更新の完全性を認証し、検証し、モデル中毒や敵対的干渉に関連するリスクを効果的に軽減する。
論文 参考訳(メタデータ) (2024-03-15T04:03:34Z) - Trustworthy Distributed AI Systems: Robustness, Privacy, and Governance [14.941040909919327]
分散AIシステムは、経済的および社会的影響を増大させることで、ビッグデータコンピューティングとデータ処理能力に革命をもたらしている。
近年の研究では、AIシステムのセキュリティ、プライバシ、公平性の問題に起因する新たな攻撃面とリスクが特定されている。
我々は、信頼できる分散AIのための代表的技術、アルゴリズム、理論的基礎についてレビューする。
論文 参考訳(メタデータ) (2024-02-02T01:58:58Z) - Auditing and Generating Synthetic Data with Controllable Trust Trade-offs [54.262044436203965]
合成データセットとAIモデルを包括的に評価する総合監査フレームワークを導入する。
バイアスや差別の防止、ソースデータへの忠実性の確保、実用性、堅牢性、プライバシ保護などに焦点を当てている。
多様なユースケースにまたがる様々な生成モデルを監査することにより,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-21T09:03:18Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。