論文の概要: Decentralized Collaborative Learning with Probabilistic Data Protection
        - arxiv url: http://arxiv.org/abs/2208.10674v2
- Date: Wed, 24 Aug 2022 01:21:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-08-25 10:27:08.421829
- Title: Decentralized Collaborative Learning with Probabilistic Data Protection
- Title(参考訳): 確率的データ保護による分散協調学習
- Authors: Tsuyoshi Id\'e, Rudy Raymond
- Abstract要約: 本稿では、民主主義、多様性、プライバシの価値観を尊重するように慎重に設計された分散機械学習フレームワークを提案する。
具体的には,プライバシ保護動的コンセンサスアルゴリズムを統合した多タスク学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 4.7362989868031855
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract:   We discuss future directions of Blockchain as a collaborative value
co-creation platform, in which network participants can gain extra insights
that cannot be accessed when disconnected from the others. As such, we propose
a decentralized machine learning framework that is carefully designed to
respect the values of democracy, diversity, and privacy. Specifically, we
propose a federated multi-task learning framework that integrates a
privacy-preserving dynamic consensus algorithm. We show that a specific network
topology called the expander graph dramatically improves the scalability of
global consensus building. We conclude the paper by making some remarks on open
problems.
- Abstract(参考訳): 我々は,ネットワーク参加者が他と切り離された時にアクセスできない余分な洞察を得ることができる,共同価値共同創造プラットフォームとしてのブロックチェーンの今後の方向性について論じる。
そこで我々は,民主主義,多様性,プライバシの価値を尊重するために,注意深く設計された分散機械学習フレームワークを提案する。
具体的には,プライバシ保護動的コンセンサスアルゴリズムを統合した多タスク学習フレームワークを提案する。
拡張グラフと呼ばれる特定のネットワークトポロジが,グローバルコンセンサス構築のスケーラビリティを劇的に改善することを示す。
我々はオープンな問題についていくつかのコメントをすることで論文を締めくくった。
 
      
        関連論文リスト
        - Poster: FedBlockParadox -- A Framework for Simulating and Securing   Decentralized Federated Learning [5.585625844344932]
 FedBlockParadoxは、ブロックチェーンテクノロジ上に構築された分散型フェデレーション学習システムのモデリングと評価のためのモジュラーフレームワークである。
複数のコンセンサスプロトコル、バリデーションメソッド、アグリゲーション戦略、敵攻撃モデルをサポートする。
制御された実験を可能にすることで、FedBlockParadoxは、セキュアで分散化された学習ソリューションを開発する研究者に貴重なリソースを提供する。
 論文  参考訳(メタデータ) (2025-06-03T09:25:06Z)
- Enhancing Graph Contrastive Learning with Reliable and Informative   Augmentation for Recommendation [84.45144851024257]
 CoGCLは、離散コードを通じてより強力な協調情報でコントラスト的なビューを構築することで、グラフのコントラスト学習を強化することを目的としている。
ユーザとアイテムの表現を離散コードに定量化するために,マルチレベルベクトル量化器をエンドツーエンドで導入する。
近傍構造に対しては,離散符号を仮想隣人として扱うことにより,仮想隣人拡張を提案する。
意味的関連性については、共有された離散コードと相互作用ターゲットに基づいて類似のユーザ/イテムを識別し、意味的関連性のあるビューを生成する。
 論文  参考訳(メタデータ) (2024-09-09T14:04:17Z)
- Fantastyc: Blockchain-based Federated Learning Made Secure and Practical [0.7083294473439816]
 フェデレートラーニング(Federated Learning)は、クライアントがローカルデータを共有せずに、中央サーバのオーケストレーション下で機械学習モデルを協調的にトレーニングすることを可能にする分散フレームワークである。
このフレームワークの中心性は、ブロックチェーンベースのフェデレーション学習アプローチによって、文献で扱われる障害点を表している。
この課題に対処するために設計されたFantastycを提案する。
 論文  参考訳(メタデータ) (2024-06-05T20:01:49Z)
- Enhancing Trust and Privacy in Distributed Networks: A Comprehensive   Survey on Blockchain-based Federated Learning [51.13534069758711]
 ブロックチェーンのような分散型アプローチは、複数のエンティティ間でコンセンサスメカニズムを実装することで、魅力的なソリューションを提供する。
フェデレートラーニング(FL)は、参加者がデータのプライバシを保護しながら、協力的にモデルをトレーニングすることを可能にする。
本稿では,ブロックチェーンのセキュリティ機能とFLのプライバシ保護モデルトレーニング機能の相乗効果について検討する。
 論文  参考訳(メタデータ) (2024-03-28T07:08:26Z)
- Differentially Private Decentralized Learning with Random Walks [15.862152253607496]
 ランダムウォークアルゴリズムを用いて分散学習のプライバシー保証を特徴付ける。そこでは、あるノードから別のノードへ通信グラフのエッジに沿って移動することで、モデルを更新する。
その結果、ランダムウォークアルゴリズムは、互いに近接するノードに対するゴシップアルゴリズムよりも、より優れたプライバシ保証をもたらす傾向があることが明らかとなった。
 論文  参考訳(メタデータ) (2024-02-12T08:16:58Z)
- When Decentralized Optimization Meets Federated Learning [41.58479981773202]
 フェデレーション学習は、分散データから知識を抽出するための新しい学習パラダイムである。
既存のフェデレートされた学習アプローチのほとんどは、単一ポイントの障害に対して脆弱な集中的な設定に集中しています。
この問題に対処する別の戦略は、分散化された通信トポロジである。
 論文  参考訳(メタデータ) (2023-06-05T03:51:14Z)
- Privacy-preserving Decentralized Federated Learning over Time-varying
  Communication Graph [5.649296652252663]
 分散学習者が分散グローバルモデルアグリゲーションを実現するための最初のプライバシ保存コンセンサスに基づくアルゴリズムを提案する。
本論文は,提案アルゴリズムの正当性とプライバシ特性について述べる。
 論文  参考訳(メタデータ) (2022-10-01T17:17:22Z)
- Modeling Multiple Views via Implicitly Preserving Global Consistency and
  Local Complementarity [61.05259660910437]
 複数の視点から表現を学習するために,グローバルな一貫性と相補性ネットワーク(CoCoNet)を提案する。
グローバルな段階では、重要な知識はビュー間で暗黙的に共有され、そのような知識を捕捉するためのエンコーダの強化は、学習された表現の識別性を向上させることができる。
最後に、局所的な段階において、横断的な識別的知識を結合する相補的要素を提案し、また、エンコーダが視点的識別性だけでなく、横断的な相補的情報も学習するように誘導する。
 論文  参考訳(メタデータ) (2022-09-16T09:24:00Z)
- Privatized Graph Federated Learning [57.14673504239551]
 グラフによって連結された複数の単位からなるグラフフェデレーション学習を導入する。
グラフ準同型摂動はアルゴリズムが微分プライベートであることを保証するためにどのように使用できるかを示す。
 論文  参考訳(メタデータ) (2022-03-14T13:48:23Z)
- Finite-Time Consensus Learning for Decentralized Optimization with
  Nonlinear Gossiping [77.53019031244908]
 本稿では,非線形ゴシップ(NGO)に基づく分散学習フレームワークを提案する。
コミュニケーション遅延とランダム化チャットが学習にどう影響するかを解析することで,実践的なバリエーションの導出が可能となる。
 論文  参考訳(メタデータ) (2021-11-04T15:36:25Z)
- See More, Know More: Unsupervised Video Object Segmentation with
  Co-Attention Siamese Networks [184.4379622593225]
 教師なしビデオオブジェクトセグメンテーションタスクに対処するため,CO-attention Siamese Network (COSNet) と呼ばれる新しいネットワークを導入する。
我々は,ビデオフレーム間の固有相関の重要性を強調し,グローバルなコアテンション機構を取り入れた。
本稿では、ビデオ内のリッチなコンテキストをマイニングするために、異なるコアテンションの変種を導出する、統一的でエンドツーエンドのトレーニング可能なフレームワークを提案する。
 論文  参考訳(メタデータ) (2020-01-19T11:10:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
       
     
      指定された論文の情報です。
      本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。