論文の概要: G-Rank: Unsupervised Continuous Learn-to-Rank for Edge Devices in a P2P
Network
- arxiv url: http://arxiv.org/abs/2301.12530v1
- Date: Sun, 29 Jan 2023 20:15:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-31 16:41:46.352125
- Title: G-Rank: Unsupervised Continuous Learn-to-Rank for Edge Devices in a P2P
Network
- Title(参考訳): G-Rank: P2Pネットワークにおけるエッジデバイスのための教師なし連続学習
- Authors: Andrew Gold, Johan Pouwelse
- Abstract要約: 本稿では、分散ネットワーク専用に設計された教師なしランキングアルゴリズムであるG-Rankを紹介する。
G-Rankは設計において高度にモジュール化されており、分類データに限らず、最小限の変更で様々な領域で実装できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ranking algorithms in traditional search engines are powered by enormous
training data sets that are meticulously engineered and curated by a
centralized entity. Decentralized peer-to-peer (p2p) networks such as
torrenting applications and Web3 protocols deliberately eschew centralized
databases and computational architectures when designing services and features.
As such, robust search-and-rank algorithms designed for such domains must be
engineered specifically for decentralized networks, and must be lightweight
enough to operate on consumer-grade personal devices such as a smartphone or
laptop computer. We introduce G-Rank, an unsupervised ranking algorithm
designed exclusively for decentralized networks. We demonstrate that accurate,
relevant ranking results can be achieved in fully decentralized networks
without any centralized data aggregation, feature engineering, or model
training. Furthermore, we show that such results are obtainable with minimal
data preprocessing and computational overhead, and can still return highly
relevant results even when a user's device is disconnected from the network.
G-Rank is highly modular in design, is not limited to categorical data, and can
be implemented in a variety of domains with minimal modification. The results
herein show that unsupervised ranking models designed for decentralized p2p
networks are not only viable, but worthy of further research.
- Abstract(参考訳): 従来の検索エンジンのランク付けアルゴリズムは、集中型エンティティによって慎重に設計され、キュレーションされる巨大なトレーニングデータセットによって実現されている。
トレントアプリケーションやWeb3プロトコルのような分散ピアツーピア(p2p)ネットワークは、サービスや機能を設計する際に、意図的に集中型データベースや計算アーキテクチャを設計する。
このように、このようなドメイン向けに設計された堅牢な検索・ランクアルゴリズムは、分散ネットワーク用に特別に設計され、スマートフォンやラップトップコンピュータのような消費者級のパーソナルデバイスで操作できるほど軽量でなければならない。
分散ネットワーク専用に設計された教師なしランキングアルゴリズムであるg-rankを提案する。
集中型データ集約や機能工学,モデルトレーニングを必要とせずに,完全分散ネットワークにおいて,正確かつ適切なランキング結果が達成できることを実証する。
さらに,データ前処理や計算オーバーヘッドが最小限に抑えられ,ユーザのデバイスがネットワークから切断された場合でも,高い関連性のある結果を返すことができることを示す。
G-Rankは設計において高度にモジュール化されており、分類データに限らず、最小限の変更で様々な領域で実装できる。
この結果は、分散p2pネットワーク用に設計された教師なしのランキングモデルが実行可能なだけでなく、さらなる研究に値することを示している。
関連論文リスト
- Coordination-free Decentralised Federated Learning on Complex Networks:
Overcoming Heterogeneity [2.6849848612544]
Federated Learning(FL)は、エッジコンピューティングシナリオで学習タスクを実行するためのフレームワークである。
本稿では,コミュニケーション効率のよい分散フェデレート学習(DFL)アルゴリズムを提案する。
我々のソリューションは、デバイスが直接隣人とのみ通信し、正確なモデルを訓練することを可能にする。
論文 参考訳(メタデータ) (2023-12-07T18:24:19Z) - A Novel Neural Network-Based Federated Learning System for Imbalanced
and Non-IID Data [2.9642661320713555]
ほとんどの機械学習アルゴリズムは、様々なソースから収集される大量のデータに大きく依存している。
この問題に対処するため、研究者らはフェデレーション学習を導入し、クライアントデータのプライバシーを確保することによって予測モデルを学習した。
本研究では,ニューラルネットワークに基づくフェデレーション学習システムを提案する。
論文 参考訳(メタデータ) (2023-11-16T17:14:07Z) - Scalable Neural Network Training over Distributed Graphs [45.151244961817454]
実世界のグラフデータは、キャパシティの制約のため、多くのマシンに格納されなければならない。
ネットワーク通信は費用がかかり、GNNのトレーニングの主なボトルネックとなっている。
最初のフレームワークは、すべてのネットワーク分散レベルにおいて、GNNのトレーニングに使用することができる。
論文 参考訳(メタデータ) (2023-02-25T10:42:34Z) - On-Device Domain Generalization [93.79736882489982]
ドメインの一般化はデバイス上の機械学習アプリケーションにとって重要である。
知識蒸留がこの問題の解決の有力な候補であることがわかった。
本研究では,教師が配布外データをどのように扱えるかを学生に教えることを目的とした,配布外知識蒸留(OKD)という簡単なアイデアを提案する。
論文 参考訳(メタデータ) (2022-09-15T17:59:31Z) - Trident Pyramid Networks: The importance of processing at the feature
pyramid level for better object detection [50.008529403150206]
我々はTrident Pyramid Network (TPN)と呼ばれる新しいコアアーキテクチャを提案する。
TPNはより深い設計を可能にし、コミュニケーションベースの処理と自己処理のバランスを改善する。
TPNコアをオブジェクト検出ベンチマークで使用した場合,BifPNベースラインを1.5 APで上回り,一貫した改善が見られた。
論文 参考訳(メタデータ) (2021-10-08T09:59:59Z) - Unsupervised Domain-adaptive Hash for Networks [81.49184987430333]
ドメイン適応型ハッシュ学習はコンピュータビジョンコミュニティでかなりの成功を収めた。
UDAHと呼ばれるネットワークのための教師なしドメイン適応型ハッシュ学習手法を開発した。
論文 参考訳(メタデータ) (2021-08-20T12:09:38Z) - SpreadGNN: Serverless Multi-task Federated Learning for Graph Neural
Networks [13.965982814292971]
グラフニューラルネットワーク(GNN)は、グラフ機械学習問題の第一選択方法である。
GNNトレーニングのための大量の実世界のグラフデータを集中させることは、ユーザ側のプライバシー上の懸念から禁じられている。
本研究では,新しいマルチタスク・フェデレーション・トレーニング・フレームワークであるSpreadGNNを提案する。
論文 参考訳(メタデータ) (2021-06-04T22:20:47Z) - Learning Connectivity for Data Distribution in Robot Teams [96.39864514115136]
グラフニューラルネットワーク(GNN)を用いたアドホックネットワークにおけるデータ分散のためのタスク非依存,分散化,低レイテンシ手法を提案する。
当社のアプローチは、グローバル状態情報に基づいたマルチエージェントアルゴリズムを各ロボットで利用可能にすることで機能させます。
我々は,情報の平均年齢を報酬関数として強化学習を通じて分散gnn通信政策を訓練し,タスク固有の報酬関数と比較してトレーニング安定性が向上することを示す。
論文 参考訳(メタデータ) (2021-03-08T21:48:55Z) - Decentralized Control with Graph Neural Networks [147.84766857793247]
分散コントローラを学習するグラフニューラルネットワーク(GNN)を用いた新しいフレームワークを提案する。
GNNは、自然分散アーキテクチャであり、優れたスケーラビリティと転送性を示すため、タスクに適している。
分散コントローラの学習におけるGNNの可能性を説明するために、群れとマルチエージェントパス計画の問題を検討する。
論文 参考訳(メタデータ) (2020-12-29T18:59:14Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z) - Federated Learning with Cooperating Devices: A Consensus Approach for
Massive IoT Networks [8.456633924613456]
分散システムにおける機械学習モデルをトレーニングするための新しいパラダイムとして、フェデレートラーニング(FL)が登場している。
提案するFLアルゴリズムは,ネットワーク内のデータ操作を行うデバイスとの協調を利用して,完全に分散された(あるいはサーバレス)学習手法を提案する。
このアプローチは、分散接続とコンピューティングを特徴とするネットワークを超えて、5G 内で FL を統合するための基盤となる。
論文 参考訳(メタデータ) (2019-12-27T15:16:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。