論文の概要: A Weighted Byzantine Fault Tolerance Consensus Driven Trusted Multiple Large Language Models Network
- arxiv url: http://arxiv.org/abs/2505.05103v1
- Date: Thu, 08 May 2025 10:04:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 21:43:49.840439
- Title: A Weighted Byzantine Fault Tolerance Consensus Driven Trusted Multiple Large Language Models Network
- Title(参考訳): 重み付きビザンチンフォールトトレランスコンセンサス駆動信頼型多言語モデルネットワーク
- Authors: Haoxiang Luo, Gang Sun, Yinqiu Liu, Dongcheng Zhao, Dusit Niyato, Hongfang Yu, Schahram Dustdar,
- Abstract要約: 大規模言語モデル(LLM)は幅広いアプリケーションで大きな成功を収めています。
近年,MultiLLMネットワーク(MultiLLMN)などの協調フレームワークが導入されている。
重み付きビザンチンフォールトトレランス(WBFT)ブロックチェーンコンセンサス機構によって駆動される新しいTrusted MultiLLMNフレームワークを提案する。
- 参考スコア(独自算出の注目度): 53.37983409425452
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Large Language Models (LLMs) have achieved remarkable success across a wide range of applications. However, individual LLMs often produce inconsistent, biased, or hallucinated outputs due to limitations in their training corpora and model architectures. Recently, collaborative frameworks such as the Multi-LLM Network (MultiLLMN) have been introduced, enabling multiple LLMs to interact and jointly respond to user queries. Nevertheless, MultiLLMN architectures raise critical concerns regarding the reliability and security of the generated content, particularly in open environments where malicious or compromised LLMs may be present. Moreover, reliance on centralized coordination undermines system efficiency and introduces single points of failure. In this paper, we propose a novel Trusted MultiLLMN framework, driven by a Weighted Byzantine Fault Tolerance (WBFT) blockchain consensus mechanism, to ensure the reliability, security, and efficiency of multi-LLM collaboration. In WBFT, voting weights are adaptively assigned to each LLM based on its response quality and trustworthiness, incentivizing reliable behavior, and reducing the impact of malicious nodes. Extensive simulations demonstrate that WBFT significantly improves both consensus security and efficiency compared to classical and modern consensus mechanisms, particularly under wireless network conditions. Furthermore, our evaluations reveal that Trusted MultiLLMN supported by WBFT can deliver higher-quality and more credible responses than both single LLMs and conventional MultiLLMNs, thereby providing a promising path toward building robust, decentralized AI collaboration networks.
- Abstract(参考訳): 大規模言語モデル(LLM)は幅広いアプリケーションで大きな成功を収めています。
しかしながら、個々のLLMは、トレーニングコーパスやモデルアーキテクチャの制限により、一貫性のない、バイアスのある、あるいは幻覚的な出力を生成することが多い。
最近、MultiLLM Network(MultiLLMN)のような協調的なフレームワークが導入され、複数のLLMがユーザクエリと対話し、共同で応答できるようになりました。
それでも、MultiLLMNアーキテクチャは、生成したコンテンツの信頼性とセキュリティに関する重要な懸念を提起する。
さらに、集中的な調整への依存はシステムの効率を損ね、単一障害点を導入する。
本稿では,マルチLLMコラボレーションの信頼性,セキュリティ,効率を確保するために,WBFT(Weighted Byzantine Fault Tolerance)ブロックチェーンコンセンサス機構によって駆動される新しいTrusted MultiLLMNフレームワークを提案する。
WBFTでは、その応答品質と信頼性に基づいて投票重みを各LSMに適応的に割り当て、信頼性の高い行動のインセンティブを与え、悪意のあるノードの影響を減らす。
大規模なシミュレーションにより、WBFTは、特に無線ネットワーク条件下で、古典的および近代的なコンセンサスメカニズムと比較して、コンセンサスセキュリティと効率の両方を著しく改善することが示された。
さらに、WBFTがサポートしているTrusted MultiLLMNは、単一のLLMと従来のMultiLLMNよりも高品質で信頼性の高い応答を提供することができ、堅牢で分散化されたAIコラボレーションネットワークを構築するための有望な道を提供する。
関連論文リスト
- Attack the Messages, Not the Agents: A Multi-round Adaptive Stealthy Tampering Framework for LLM-MAS [12.649568006596956]
言語モデルに基づく大規模マルチエージェントシステム(LLM-MAS)は,エージェント間通信によって複雑な動的タスクを効果的に実現する。
LLM-MASを標的とする既存の攻撃方法は、エージェント内部を妥協するか、直接的および過度な説得に依存している。
システム内の通信脆弱性を利用したマルチラウンド適応型ステルスタイピングフレームワークであるMASTを提案する。
論文 参考訳(メタデータ) (2025-08-05T06:14:53Z) - Federated Learning-Enabled Hybrid Language Models for Communication-Efficient Token Transmission [87.68447072141402]
ハイブリッド言語モデル(HLM)は、エッジデバイス上でのSLM(Small Language Model)の低レイテンシ効率と、集中型サーバ上でのLLM(Large Language Model)の高精度を組み合わせたものである。
我々は、不確実性を考慮した推論とフェデレートラーニング(FL)を統合する通信効率の高いHLMフレームワークであるFedHLMを提案する。
論文 参考訳(メタデータ) (2025-06-30T02:56:11Z) - MLA-Trust: Benchmarking Trustworthiness of Multimodal LLM Agents in GUI Environments [40.15090158534087]
MLA-Trustは,完全性,コントロール可能性,安全性,プライバシという4つの側面にまたがって,MLAの信頼性を評価する,初めての総合的かつ統一的なフレームワークである。
ウェブサイトやモバイルアプリケーションをリアルなテストベッドとして利用し、34のハイリスクな対話タスクを設計し、リッチな評価データセットをキュレートします。
論文 参考訳(メタデータ) (2025-06-02T12:56:27Z) - A Trustworthy Multi-LLM Network: Challenges,Solutions, and A Use Case [59.58213261128626]
複数の大規模言語モデル(LLM)を信頼性のあるマルチLLMネットワーク(MultiLLMN)に接続するブロックチェーン対応協調フレームワークを提案する。
このアーキテクチャは、複雑なネットワーク最適化問題に対する最も信頼性が高く高品質な応答の協調評価と選択を可能にする。
論文 参考訳(メタデータ) (2025-05-06T05:32:46Z) - QLLM: Do We Really Need a Mixing Network for Credit Assignment in Multi-Agent Reinforcement Learning? [4.429189958406034]
マルチエージェント強化学習(MARL)におけるクレジットの割り当ては依然として根本的な課題である。
大規模言語モデル(LLM)を用いた信用代入関数の自動構築を容易にする新しいアルゴリズムである textbfQLLM を提案する。
いくつかの標準MARLベンチマークで実施された大規模な実験は、提案手法が既存の最先端のベースラインを一貫して上回ることを示した。
論文 参考訳(メタデータ) (2025-04-17T14:07:11Z) - LLM-Net: Democratizing LLMs-as-a-Service through Blockchain-based Expert Networks [1.3846014191157405]
本稿では,LLM(Large Language Models)をサービスとして民主化するブロックチェーンベースのフレームワークであるLLM-Netを紹介する。
LLM-Netは、集合計算資源と分散ドメインの専門知識を活用することで、様々な特定のドメインに対して微調整されたエキスパートモデルを導入している。
我々のシミュレーションはClaude 3.5 Sonnet, Llama 3.1, Grok-2, GPT-4oといった最先端のLCM上に構築され, サービス品質維持における評価に基づくメカニズムの有効性を検証した。
論文 参考訳(メタデータ) (2025-01-13T12:56:05Z) - R-MTLLMF: Resilient Multi-Task Large Language Model Fusion at the Wireless Edge [78.26352952957909]
マルチタスク大言語モデル(MTLLM)は、ユーザが複数のタスクを効率的に処理するための特殊なモデルを要求する無線エッジにおける多くのアプリケーションにとって重要である。
タスクベクトルによるモデル融合の概念は、MDLLMを生成するための微調整パラメータを組み合わせるための効率的なアプローチとして登場した。
本稿では,最悪の逆攻撃を前提として,エッジユーザがタスクベクトルを介して協調的にMTLMを作成できる問題について検討する。
論文 参考訳(メタデータ) (2024-11-27T10:57:06Z) - MultiTrust: A Comprehensive Benchmark Towards Trustworthy Multimodal Large Language Models [51.19622266249408]
MultiTrustはMLLMの信頼性に関する最初の総合的で統一されたベンチマークである。
我々のベンチマークでは、マルチモーダルリスクとクロスモーダルインパクトの両方に対処する厳格な評価戦略を採用している。
21の近代MLLMによる大規模な実験は、これまで調査されなかった信頼性の問題とリスクを明らかにしている。
論文 参考訳(メタデータ) (2024-06-11T08:38:13Z) - RigorLLM: Resilient Guardrails for Large Language Models against Undesired Content [62.685566387625975]
現在の緩和戦略は効果はあるものの、敵の攻撃下では弾力性がない。
本稿では,大規模言語モデルのための弾力性ガードレール(RigorLLM)について紹介する。
論文 参考訳(メタデータ) (2024-03-19T07:25:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。