論文の概要: FEDSTR: Money-In AI-Out | A Decentralized Marketplace for Federated Learning and LLM Training on the NOSTR Protocol
- arxiv url: http://arxiv.org/abs/2404.15834v1
- Date: Mon, 15 Apr 2024 20:51:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-28 10:36:53.720594
- Title: FEDSTR: Money-In AI-Out | A Decentralized Marketplace for Federated Learning and LLM Training on the NOSTR Protocol
- Title(参考訳): FEDSTR: マネーインAI-Out : NOSTRプロトコルによるフェデレートラーニングとLLMトレーニングのための分散マーケットプレース
- Authors: Konstantinos E. Nikolakakis, George Chantzialexiou, Dionysis Kalogerias,
- Abstract要約: NOSTRは、w3c websockets標準に基づいた、ソーシャルWebのための通信プロトコルである。
本稿では,フェデレートラーニングとLLMトレーニングのための分散マーケットプレースを最終目標として,既存のプロトコル構造に基づくアプローチを提案する。
- 参考スコア(独自算出の注目度): 2.7446241148152257
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The NOSTR is a communication protocol for the social web, based on the w3c websockets standard. Although it is still in its infancy, it is well known as a social media protocol, thousands of trusted users and multiple user interfaces, offering a unique experience and enormous capabilities. To name a few, the NOSTR applications include but are not limited to direct messaging, file sharing, audio/video streaming, collaborative writing, blogging and data processing through distributed AI directories. In this work, we propose an approach that builds upon the existing protocol structure with end goal a decentralized marketplace for federated learning and LLM training. In this proposed design there are two parties: on one side there are customers who provide a dataset that they want to use for training an AI model. On the other side, there are service providers, who receive (parts of) the dataset, train the AI model, and for a payment as an exchange, they return the optimized AI model. The decentralized and censorship resistant features of the NOSTR enable the possibility of designing a fair and open marketplace for training AI models and LLMs.
- Abstract(参考訳): NOSTRは、w3c websockets標準に基づいた、ソーシャルWebのための通信プロトコルである。
まだ初期段階ではあるが、ソーシャルメディアプロトコル、何千もの信頼できるユーザ、複数のユーザインターフェースとして知られており、ユニークなエクスペリエンスと膨大な機能を提供している。
いくつか挙げると、NOSTRアプリケーションにはダイレクトメッセージング、ファイル共有、オーディオ/ビデオストリーミング、コラボレーティブライティング、ブログ、分散AIディレクトリによるデータ処理などに限定されている。
本研究では,フェデレートラーニングとLLMトレーニングのための分散マーケットプレースを最終目標として,既存のプロトコル構造に基づくアプローチを提案する。
この提案された設計には2つのパーティがある。一方には、AIモデルのトレーニングに使用するデータセットを提供する顧客がいる。
一方、データセットを受け取り(一部)、AIモデルをトレーニングし、交換として支払いを行うサービスプロバイダは、最適化されたAIモデルを返す。
NOSTRの分散化と検閲に抵抗する特徴により、AIモデルとLLMをトレーニングするための公正でオープンなマーケットプレースを設計することができる。
関連論文リスト
- Large Language Models for Base Station Siting: Intelligent Deployment based on Prompt or Agent [62.16747639440893]
大規模言語モデル(LLM)とその関連技術は、特に迅速な工学とエージェント工学の領域において進歩している。
このアプローチは、人間の経験と知識をこれらの洗練されたLLMに注入するために、巧妙なプロンプトの戦略的利用を必要とする。
この統合は、サービスとしての人工知能(AI)と、より容易なAIの将来のパラダイムを表している。
論文 参考訳(メタデータ) (2024-08-07T08:43:32Z) - Model Callers for Transforming Predictive and Generative AI Applications [2.7195102129095003]
モデル呼び出し(model caller)と呼ばれる新しいソフトウェア抽象化を導入する。
モデル呼び出しは、AIとMLモデル呼び出しの仲介役として機能する。
我々は、モデル呼び出しのためのPythonライブラリのプロトタイプをリリースした。
論文 参考訳(メタデータ) (2024-04-17T12:21:06Z) - Institutional Platform for Secure Self-Service Large Language Model Exploration [0.0]
論文では、データセットキュレーション、モデルトレーニング、セキュア推論、テキストベースの特徴抽出を含む、システムのアーキテクチャと重要な特徴について概説する。
プラットフォームはセキュアなLLMサービスの提供、プロセスとデータ分離の強調、エンドツーエンドの暗号化、ロールベースのリソース認証を目指している。
論文 参考訳(メタデータ) (2024-02-01T10:58:10Z) - Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Meta Knowledge Condensation for Federated Learning [65.20774786251683]
既存のフェデレートされた学習パラダイムは通常、より強力なモデルを達成するために、中央の解決器で分散モデルを広範囲に交換する。
これにより、特にデータ分散が不均一である場合、サーバと複数のクライアントの間で深刻な通信負荷が発生します。
既存のパラダイムとは違って,フェデレート学習におけるコミュニケーションコストを大幅に削減する新たな視点を導入する。
論文 参考訳(メタデータ) (2022-09-29T15:07:37Z) - Choose, not Hoard: Information-to-Model Matching for Artificial
Intelligence in O-RAN [8.52291735627073]
Open Radio Access Network (O-RAN) は、ネットワーク基盤要素がオープンで標準化されたインターフェースを介して通信する新興パラダイムである。
重要な要素は、人工知能(AI)ベースのコントローラであるRAN Intelligent Controller(RIC)である。
本稿では、異なるRICにおける複数のAIモデルインスタンスの作成について紹介し、議論し、評価し、トレーニングのためにいくつかの(またはすべての)場所の情報を活用する。
論文 参考訳(メタデータ) (2022-08-01T15:24:27Z) - APPFLChain: A Privacy Protection Distributed Artificial-Intelligence
Architecture Based on Federated Learning and Consortium Blockchain [6.054775780656853]
APPFLChainと呼ばれる新しいシステムアーキテクチャを提案する。
これはHyperledger Fabricベースのブロックチェーンとフェデレーション学習パラダイムの統合アーキテクチャである。
我々の新しいシステムは、機密性の高い個人情報をサーバに共有する必要がないため、高いセキュリティとプライバシを維持することができる。
論文 参考訳(メタデータ) (2022-06-26T05:30:07Z) - Enabling Un-/Semi-Supervised Machine Learning for MDSE of the Real-World
CPS/IoT Applications [0.5156484100374059]
我々は、スマートサイバー物理システム(CPS)とIoT(Internet of Things)の現実的なユースケースシナリオに対して、ドメイン固有モデル駆動ソフトウェアエンジニアリング(MDSE)をサポートする新しいアプローチを提案する。
人工知能(AI)の本質において利用可能なデータの大部分はラベルが付けられていないと我々は主張する。したがって、教師なしおよび/または半教師なしのMLアプローチが実践的な選択である。
提案手法は,既存の最先端MDSEツールと完全に実装され,CPS/IoTドメインを提供する。
論文 参考訳(メタデータ) (2021-07-06T15:51:39Z) - Decentralized Federated Learning Preserves Model and Data Privacy [77.454688257702]
我々は、訓練されたモデル間で知識を共有することができる、完全に分散化されたアプローチを提案する。
生徒は、合成された入力データを通じて教師の出力を訓練する。
その結果,教師が学習した未学習学生モデルが,教師と同等のF1スコアに達することがわかった。
論文 参考訳(メタデータ) (2021-02-01T14:38:54Z) - Deep Learning for Ultra-Reliable and Low-Latency Communications in 6G
Networks [84.2155885234293]
まず,データ駆動型教師付き深層学習と深部強化学習をURLLCに適用する方法を概説する。
このようなオープンな問題に対処するために、デバイスインテリジェンス、エッジインテリジェンス、およびURLLCのためのクラウドインテリジェンスを可能にするマルチレベルアーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-02-22T14:38:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。