論文の概要: A Weighted Byzantine Fault Tolerance Consensus Driven Trusted Multiple Large Language Models Network
- arxiv url: http://arxiv.org/abs/2505.05103v1
- Date: Thu, 08 May 2025 10:04:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 21:43:49.840439
- Title: A Weighted Byzantine Fault Tolerance Consensus Driven Trusted Multiple Large Language Models Network
- Title(参考訳): 重み付きビザンチンフォールトトレランスコンセンサス駆動信頼型多言語モデルネットワーク
- Authors: Haoxiang Luo, Gang Sun, Yinqiu Liu, Dongcheng Zhao, Dusit Niyato, Hongfang Yu, Schahram Dustdar,
- Abstract要約: 大規模言語モデル(LLM)は幅広いアプリケーションで大きな成功を収めています。
近年,MultiLLMネットワーク(MultiLLMN)などの協調フレームワークが導入されている。
重み付きビザンチンフォールトトレランス(WBFT)ブロックチェーンコンセンサス機構によって駆動される新しいTrusted MultiLLMNフレームワークを提案する。
- 参考スコア(独自算出の注目度): 53.37983409425452
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Large Language Models (LLMs) have achieved remarkable success across a wide range of applications. However, individual LLMs often produce inconsistent, biased, or hallucinated outputs due to limitations in their training corpora and model architectures. Recently, collaborative frameworks such as the Multi-LLM Network (MultiLLMN) have been introduced, enabling multiple LLMs to interact and jointly respond to user queries. Nevertheless, MultiLLMN architectures raise critical concerns regarding the reliability and security of the generated content, particularly in open environments where malicious or compromised LLMs may be present. Moreover, reliance on centralized coordination undermines system efficiency and introduces single points of failure. In this paper, we propose a novel Trusted MultiLLMN framework, driven by a Weighted Byzantine Fault Tolerance (WBFT) blockchain consensus mechanism, to ensure the reliability, security, and efficiency of multi-LLM collaboration. In WBFT, voting weights are adaptively assigned to each LLM based on its response quality and trustworthiness, incentivizing reliable behavior, and reducing the impact of malicious nodes. Extensive simulations demonstrate that WBFT significantly improves both consensus security and efficiency compared to classical and modern consensus mechanisms, particularly under wireless network conditions. Furthermore, our evaluations reveal that Trusted MultiLLMN supported by WBFT can deliver higher-quality and more credible responses than both single LLMs and conventional MultiLLMNs, thereby providing a promising path toward building robust, decentralized AI collaboration networks.
- Abstract(参考訳): 大規模言語モデル(LLM)は幅広いアプリケーションで大きな成功を収めています。
しかしながら、個々のLLMは、トレーニングコーパスやモデルアーキテクチャの制限により、一貫性のない、バイアスのある、あるいは幻覚的な出力を生成することが多い。
最近、MultiLLM Network(MultiLLMN)のような協調的なフレームワークが導入され、複数のLLMがユーザクエリと対話し、共同で応答できるようになりました。
それでも、MultiLLMNアーキテクチャは、生成したコンテンツの信頼性とセキュリティに関する重要な懸念を提起する。
さらに、集中的な調整への依存はシステムの効率を損ね、単一障害点を導入する。
本稿では,マルチLLMコラボレーションの信頼性,セキュリティ,効率を確保するために,WBFT(Weighted Byzantine Fault Tolerance)ブロックチェーンコンセンサス機構によって駆動される新しいTrusted MultiLLMNフレームワークを提案する。
WBFTでは、その応答品質と信頼性に基づいて投票重みを各LSMに適応的に割り当て、信頼性の高い行動のインセンティブを与え、悪意のあるノードの影響を減らす。
大規模なシミュレーションにより、WBFTは、特に無線ネットワーク条件下で、古典的および近代的なコンセンサスメカニズムと比較して、コンセンサスセキュリティと効率の両方を著しく改善することが示された。
さらに、WBFTがサポートしているTrusted MultiLLMNは、単一のLLMと従来のMultiLLMNよりも高品質で信頼性の高い応答を提供することができ、堅牢で分散化されたAIコラボレーションネットワークを構築するための有望な道を提供する。
関連論文リスト
- A Trustworthy Multi-LLM Network: Challenges,Solutions, and A Use Case [59.58213261128626]
複数の大規模言語モデル(LLM)を信頼性のあるマルチLLMネットワーク(MultiLLMN)に接続するブロックチェーン対応協調フレームワークを提案する。
このアーキテクチャは、複雑なネットワーク最適化問題に対する最も信頼性が高く高品質な応答の協調評価と選択を可能にする。
論文 参考訳(メタデータ) (2025-05-06T05:32:46Z) - QLLM: Do We Really Need a Mixing Network for Credit Assignment in Multi-Agent Reinforcement Learning? [4.429189958406034]
マルチエージェント強化学習(MARL)におけるクレジットの割り当ては依然として根本的な課題である。
大規模言語モデル(LLM)を用いた信用代入関数の自動構築を容易にする新しいアルゴリズムである textbfQLLM を提案する。
いくつかの標準MARLベンチマークで実施された大規模な実験は、提案手法が既存の最先端のベースラインを一貫して上回ることを示した。
論文 参考訳(メタデータ) (2025-04-17T14:07:11Z) - LLM-Net: Democratizing LLMs-as-a-Service through Blockchain-based Expert Networks [1.3846014191157405]
本稿では,LLM(Large Language Models)をサービスとして民主化するブロックチェーンベースのフレームワークであるLLM-Netを紹介する。
LLM-Netは、集合計算資源と分散ドメインの専門知識を活用することで、様々な特定のドメインに対して微調整されたエキスパートモデルを導入している。
我々のシミュレーションはClaude 3.5 Sonnet, Llama 3.1, Grok-2, GPT-4oといった最先端のLCM上に構築され, サービス品質維持における評価に基づくメカニズムの有効性を検証した。
論文 参考訳(メタデータ) (2025-01-13T12:56:05Z) - MultiTrust: A Comprehensive Benchmark Towards Trustworthy Multimodal Large Language Models [51.19622266249408]
MultiTrustはMLLMの信頼性に関する最初の総合的で統一されたベンチマークである。
我々のベンチマークでは、マルチモーダルリスクとクロスモーダルインパクトの両方に対処する厳格な評価戦略を採用している。
21の近代MLLMによる大規模な実験は、これまで調査されなかった信頼性の問題とリスクを明らかにしている。
論文 参考訳(メタデータ) (2024-06-11T08:38:13Z) - RigorLLM: Resilient Guardrails for Large Language Models against Undesired Content [62.685566387625975]
現在の緩和戦略は効果はあるものの、敵の攻撃下では弾力性がない。
本稿では,大規模言語モデルのための弾力性ガードレール(RigorLLM)について紹介する。
論文 参考訳(メタデータ) (2024-03-19T07:25:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。