論文の概要: Fast Networks for High-Performance Distributed Trust
- arxiv url: http://arxiv.org/abs/2511.00363v1
- Date: Sat, 01 Nov 2025 02:10:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.741725
- Title: Fast Networks for High-Performance Distributed Trust
- Title(参考訳): 高性能分散信頼のための高速ネットワーク
- Authors: Yicheng Liu, Rafail Ostrovsky, Scott Shenker, Sam Kumar,
- Abstract要約: コラボレーション型データ分析とAIは、分散信頼のための現在の暗号化技術が提供できる以上のレベルのパフォーマンスを必要とする。
これは、組織が異なる信頼ドメインでソフトウェアを運用しているためであり、WANやパブリックインターネットを介して通信する必要がある。
LANの分散信頼フレームワークを慎重に再設計することで、LANを“非日常的に”使用するよりも、桁違いなパフォーマンスを達成できることが示される。
- 参考スコア(独自算出の注目度): 14.684693572865717
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Organizations increasingly need to collaborate by performing a computation on their combined dataset, while keeping their data hidden from each other. Certain kinds of collaboration, such as collaborative data analytics and AI, require a level of performance beyond what current cryptographic techniques for distributed trust can provide. This is because the organizations run software in different trust domains, which can require them to communicate over WANs or the public Internet. In this paper, we explore how to instead run such applications using fast datacenter-type LANs. We show that, by carefully redesigning distributed trust frameworks for LANs, we can achieve up to order-of-magnitude better performance than na\"ively using a LAN. Then, we develop deployment models for Distributed But Proximate Trust (DBPT) that allow parties to use a LAN while remaining physically and logically distinct. These developments make secure collaborative data analytics and AI significantly more practical and set new research directions for developing systems and cryptographic theory for high-performance distributed trust.
- Abstract(参考訳): 組織は、データを互いに隠蔽しながら、組み合わせたデータセットで計算を実行することで、コラボレーションをますます必要とします。
コラボレーションデータ分析やAIといったある種のコラボレーションは、分散信頼のための現在の暗号技術が提供できるもの以上のレベルのパフォーマンスを必要とします。
これは、組織が異なる信頼ドメインでソフトウェアを運用しているためであり、WANやパブリックインターネットを介して通信する必要がある。
本稿では,高速なデータセンター型LANを用いて,そのようなアプリケーションを動作させる方法について検討する。
LANのための分散信頼フレームワークを慎重に再設計することで、LANを"非行"に使用する場合よりも、桁違いなパフォーマンスを達成できることが示されています。
そこで我々は,身体的・論理的に異なるままLANを使用可能なDBPT(Distributed But Proximate Trust)のデプロイメントモデルを開発した。
これらの開発により、セキュアなコラボレーティブデータ分析とAIが大幅に実用化され、高性能分散信頼のためのシステムと暗号理論を開発するための新たな研究の方向性が確立される。
関連論文リスト
- UnifyFL: Enabling Decentralized Cross-Silo Federated Learning [0.0]
We developed a trust-based cross-silo Federated Learning framework called UnifyFL。
多様なテストベッドを用いた評価の結果,UnifyFLは理想的なマルチレベル集中型FLに匹敵する性能を示した。
論文 参考訳(メタデータ) (2025-04-26T13:15:40Z) - Guided Model Merging for Hybrid Data Learning: Leveraging Centralized Data to Refine Decentralized Models [29.605620036963924]
現在のネットワークトレーニングパラダイムは、主に集中型または分散化されたデータレシスタンスに重点を置いている。
本稿では、分散化されたモデルからモデルアトラスを構築し、集中的なデータを活用する新しいフレームワークを提案する。
本手法は,フェデレーションラーニング(分散データを活用する)とモデルマージ(集中データを利用する)を相乗化することにより,ハイブリッドデータアベイラビリティの下で効果的なトレーニングを可能にする。
論文 参考訳(メタデータ) (2025-03-26T01:00:35Z) - Networked Communication for Decentralised Agents in Mean-Field Games [59.01527054553122]
平均フィールドゲームフレームワークにネットワーク通信を導入する。
当社のアーキテクチャは、中央集権型と独立した学習ケースの双方で保証されていることを証明しています。
ネットワーク化されたアプローチは、障害の更新や人口規模の変化に対する堅牢性という点において、両方の選択肢に対して大きなメリットがあることが示されています。
論文 参考訳(メタデータ) (2023-06-05T10:45:39Z) - Collaborative Mean Estimation over Intermittently Connected Networks
with Peer-To-Peer Privacy [86.61829236732744]
本研究は、断続接続を有するネットワーク上での分散平均推定(DME)の問題について考察する。
目標は、中央サーバの助けを借りて、分散ノード間でローカライズされたデータサンプルに関するグローバル統計を学習することだ。
ノード間のデータ共有による協調中継とプライバシー漏洩のトレードオフについて検討する。
論文 参考訳(メタデータ) (2023-02-28T19:17:03Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - On the Importance of Trust in Next-Generation Networked CPS Systems: An
AI Perspective [2.1055643409860734]
本稿では,ネットワークエージェントの状態を評価し,意思決定プロセスを改善する手段として信頼を提案する。
信頼関係は、プロトコル内のエンティティの相互作用によって生成された証拠に基づいている。
信頼の証拠を活用することで,フェデレートラーニングのパフォーマンスと安全性が向上することを示す。
論文 参考訳(メタデータ) (2021-04-16T02:12:13Z) - Learning Connectivity for Data Distribution in Robot Teams [96.39864514115136]
グラフニューラルネットワーク(GNN)を用いたアドホックネットワークにおけるデータ分散のためのタスク非依存,分散化,低レイテンシ手法を提案する。
当社のアプローチは、グローバル状態情報に基づいたマルチエージェントアルゴリズムを各ロボットで利用可能にすることで機能させます。
我々は,情報の平均年齢を報酬関数として強化学習を通じて分散gnn通信政策を訓練し,タスク固有の報酬関数と比較してトレーニング安定性が向上することを示す。
論文 参考訳(メタデータ) (2021-03-08T21:48:55Z) - FDNAS: Improving Data Privacy and Model Diversity in AutoML [7.402044070683503]
クライアントの分散データからハードウェアを意識したNASを実現するためのFDNAS(Federated Direct Neural Architecture Search)フレームワークを提案する。
メタラーニングにインスパイアされたクライアントのデータ分散をさらに適応させるために、CFDNAS(Federated Direct Neural Architecture Search)フレームワークが提案され、クライアント対応NASを実現する。
論文 参考訳(メタデータ) (2020-11-06T14:13:42Z) - Brainstorming Generative Adversarial Networks (BGANs): Towards
Multi-Agent Generative Models with Distributed Private Datasets [70.62568022925971]
生成的敵ネットワーク(GAN)は、データ空間を適切に表現する大規模なデータセットによって供給されなければならない。
多くのシナリオでは、利用可能なデータセットは制限され、複数のエージェントに分散する可能性がある。
本稿では,BGAN(Breepstorming GAN)アーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-02-02T02:58:32Z) - Federated Learning with Cooperating Devices: A Consensus Approach for
Massive IoT Networks [8.456633924613456]
分散システムにおける機械学習モデルをトレーニングするための新しいパラダイムとして、フェデレートラーニング(FL)が登場している。
提案するFLアルゴリズムは,ネットワーク内のデータ操作を行うデバイスとの協調を利用して,完全に分散された(あるいはサーバレス)学習手法を提案する。
このアプローチは、分散接続とコンピューティングを特徴とするネットワークを超えて、5G 内で FL を統合するための基盤となる。
論文 参考訳(メタデータ) (2019-12-27T15:16:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。