論文の概要: PolyLink: A Blockchain Based Decentralized Edge AI Platform for LLM Inference
- arxiv url: http://arxiv.org/abs/2510.02395v1
- Date: Wed, 01 Oct 2025 05:57:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 16:35:52.080401
- Title: PolyLink: A Blockchain Based Decentralized Edge AI Platform for LLM Inference
- Title(参考訳): PolyLink: LLM推論のためのブロックチェーンベースの分散エッジAIプラットフォーム
- Authors: Hongbo Liu, Jiannong Cao, Bo Yang, Dongbin Bai, Yinfeng Cao, Xiaoming Shen, Yinan Zhang, Jinwen Liang, Shan Jiang, Mingjin Zhang,
- Abstract要約: PolyLinkは、大規模な言語モデル(LLM)の開発と推論を分散化する、ブロックチェーンベースの分散AIプラットフォームである。
推論整合性を確保するため、軽量なクロスエンコーダモデルとLPM-as-a-Judgeを組み合わせたTIQEプロトコルを設計する。
その結果,推測と検証のレイテンシが現実的であることが示唆された。
- 参考スコア(独自算出の注目度): 21.86019483418914
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid advancement of large language models (LLMs) in recent years has revolutionized the AI landscape. However, the deployment model and usage of LLM services remain highly centralized, creating significant trust issues and costs for end users and developers. To address these issues, we propose PolyLink, a blockchain-based decentralized AI platform that decentralizes LLM development and inference. Specifically, PolyLink introduces a decentralized crowdsourcing architecture that supports single-device and cross-device model deployment and inference across heterogeneous devices at the edge. Moreover, to ensure the inference integrity, we design the TIQE protocol, which combines a lightweight cross-encoder model and an LLM-as-a-Judge for a high-accuracy inference evaluation. Lastly, we integrate a comprehensive token-based incentive model with dynamic pricing and reward mechanisms for all participants. We have deployed PolyLink and conducted an extensive real-world evaluation through geo-distributed deployment across heterogeneous devices. Results indicate that the inference and verification latency is practical. Our security analysis demonstrates that the system is resistant to model degradation attacks and validator corruptions. PolyLink is now available at https://github.com/IMCL-PolyLink/PolyLink.
- Abstract(参考訳): 近年の大規模言語モデル(LLM)の急速な進歩は、AIの展望に革命をもたらした。
しかし、LLMサービスのデプロイメントモデルと利用は依然として高度に中央集権化されており、エンドユーザと開発者にとって重要な信頼の問題とコストを生み出している。
これらの問題に対処するために、LLM開発と推論を分散化するブロックチェーンベースの分散AIプラットフォームであるPolyLinkを提案する。
具体的には、PolyLinkは、単一デバイスとクロスデバイスモデルのデプロイメントとエッジにおける異機種間の推論をサポートする、分散型のクラウドソーシングアーキテクチャを導入している。
さらに、推定整合性を確保するために、軽量なクロスエンコーダモデルとLLM-as-a-Judgeを組み合わせたTIQEプロトコルを設計し、高精度な推論評価を行う。
最後に、トークンベースのインセンティブモデルと、すべての参加者に対する動的な価格設定と報酬メカニズムを統合する。
我々はPolyLinkをデプロイし、異種デバイスにまたがる地理的分散配置を通じて、広範囲な実環境評価を行った。
その結果,推測と検証のレイテンシが現実的であることが示唆された。
我々のセキュリティ分析は、システムがモデル劣化攻撃やバリデータ破損に耐性があることを実証している。
PolyLinkはhttps://github.com/IMCL-PolyLink/PolyLinkで利用可能である。
関連論文リスト
- CollaPipe: Adaptive Segment-Optimized Pipeline Parallelism for Collaborative LLM Training in Heterogeneous Edge Networks [57.95170323315603]
CollaPipeは、コラボレーティブパイプライン並列性とフェデレーションアグリゲーションを統合し、自己進化型ネットワークをサポートする分散学習フレームワークである。
CollaPipeでは、エンコーダ部分は可変サイズのセグメントに適応的に分割され、パイプライン並列トレーニングのためにモバイルデバイスにデプロイされ、デコーダは生成タスクを処理するためにエッジサーバにデプロイされる。
トレーニング効率を向上させるために,モデルセグメント,マイクロバッチ,帯域幅,送信電力を適応的に割り当てる共同最適化問題を定式化する。
論文 参考訳(メタデータ) (2025-09-24T07:54:01Z) - Ratio1 -- AI meta-OS [35.18016233072556]
Ratio1は、異種エッジデバイスをまたいだAIモデルの開発、デプロイ、推論を統合する、分散MLOpsプロトコルである。
その重要なイノベーションは、アイドルコンピューティングリソースを信頼できないグローバルスーパーコンピュータに変換する、ブロックチェーンベースの統合フレームワークである。
論文 参考訳(メタデータ) (2025-09-05T07:41:54Z) - Secure and Scalable Blockchain Voting: A Comparative Framework and the Role of Large Language Models [0.0]
本稿では,ブロックチェーンベースのE-Votingアーキテクチャ,コンセンサス機構,暗号プロトコルを解析するための比較フレームワークを提案する。
本稿では,ハイブリッドコンセンサス,軽量暗号,分散ID管理などを含む最適化戦略を提案する。
私たちの発見は、国家規模のデプロイメントに適したセキュアでスケーラブルでインテリジェントなブロックチェーンベースのE-Votingシステムを設計するための基盤を提供します。
論文 参考訳(メタデータ) (2025-08-07T21:34:21Z) - A Weighted Byzantine Fault Tolerance Consensus Driven Trusted Multiple Large Language Models Network [53.37983409425452]
大規模言語モデル(LLM)は幅広いアプリケーションで大きな成功を収めています。
近年,MultiLLMネットワーク(MultiLLMN)などの協調フレームワークが導入されている。
重み付きビザンチンフォールトトレランス(WBFT)ブロックチェーンコンセンサス機構によって駆動される新しいTrusted MultiLLMNフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-08T10:04:41Z) - A Trustworthy Multi-LLM Network: Challenges,Solutions, and A Use Case [59.58213261128626]
複数の大規模言語モデル(LLM)を信頼性のあるマルチLLMネットワーク(MultiLLMN)に接続するブロックチェーン対応協調フレームワークを提案する。
このアーキテクチャは、複雑なネットワーク最適化問題に対する最も信頼性が高く高品質な応答の協調評価と選択を可能にする。
論文 参考訳(メタデータ) (2025-05-06T05:32:46Z) - Digital Twin-Assisted Federated Learning with Blockchain in Multi-tier Computing Systems [67.14406100332671]
産業用 4.0 システムでは、リソース制約のあるエッジデバイスが頻繁にデータ通信を行う。
本稿では,デジタルツイン (DT) とフェデレーション付きデジタルツイン (FL) 方式を提案する。
提案手法の有効性を数値解析により検証した。
論文 参考訳(メタデータ) (2024-11-04T17:48:02Z) - TDML -- A Trustworthy Distributed Machine Learning Framework [7.302091381583343]
大規模モデル(LM)の急速な進歩は、計算資源の需要を増大させた。
この需要は、サプライチェーンの遅延と大手テック企業による独占的な買収により、可用性の限界によって悪化している。
本稿では、リモートトレーナーのコーディネートとワークロードの検証にガイダンスを活用する、テキスト信頼に値する分散機械学習(TDML)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-10T03:22:28Z) - Enhancing Trust and Privacy in Distributed Networks: A Comprehensive Survey on Blockchain-based Federated Learning [51.13534069758711]
ブロックチェーンのような分散型アプローチは、複数のエンティティ間でコンセンサスメカニズムを実装することで、魅力的なソリューションを提供する。
フェデレートラーニング(FL)は、参加者がデータのプライバシを保護しながら、協力的にモデルをトレーニングすることを可能にする。
本稿では,ブロックチェーンのセキュリティ機能とFLのプライバシ保護モデルトレーニング機能の相乗効果について検討する。
論文 参考訳(メタデータ) (2024-03-28T07:08:26Z) - Blockchain-based Federated Learning with Secure Aggregation in Trusted
Execution Environment for Internet-of-Things [20.797220195954065]
本稿では,Intel Software Guard Extension (SGX) ベースのTrusted Execution Environment (TEE) を用いたブロックチェーンベースのフェデレートラーニング(FL)フレームワークを提案する。
FLでは、ローカルモデルを攻撃者によって改ざんすることができる。従って、改ざんされたローカルモデルから生成されたグローバルモデルが誤用される可能性があるため、提案フレームワークはブロックチェーンネットワークを利用してモデルアグリゲーションをセキュアにする。
ノードは集約されたモデルの信頼性を検証し、モデルの整合性を保証するためにブロックチェーンコンセンサスメカニズムを実行し、タンパ保護ストレージのために分散台帳に追加することができる。
論文 参考訳(メタデータ) (2023-04-25T15:00:39Z) - Multi-Edge Server-Assisted Dynamic Federated Learning with an Optimized
Floating Aggregation Point [51.47520726446029]
協調エッジ学習(CE-FL)は、分散機械学習アーキテクチャである。
CE-FLの過程をモデル化し,分析訓練を行った。
実世界のテストベッドから収集したデータを用いて,本フレームワークの有効性を示す。
論文 参考訳(メタデータ) (2022-03-26T00:41:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。