論文の概要: A Hashgraph-Inspired Consensus Mechanism for Reliable Multi-Model Reasoning
- arxiv url: http://arxiv.org/abs/2505.03553v1
- Date: Tue, 06 May 2025 14:05:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-07 18:50:11.412051
- Title: A Hashgraph-Inspired Consensus Mechanism for Reliable Multi-Model Reasoning
- Title(参考訳): 信頼度の高いマルチモデル推論のためのハッシュグラフ駆動型コンセンサス機構
- Authors: Kolawole E. Ogunsina, Morayo A. Ogunsina,
- Abstract要約: 大規模言語モデル(LLM)からの一貫性のない出力と幻覚は、信頼できるAIシステムにとって大きな障害となる。
本稿では,分散台帳技術に触発された新たなコンセンサス機構を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Inconsistent outputs and hallucinations from large language models (LLMs) are major obstacles to reliable AI systems. When different proprietary reasoning models (RMs), such as those by OpenAI, Google, Anthropic, DeepSeek, and xAI, are given the same complex request, they often produce divergent results due to variations in training and inference. This paper proposes a novel consensus mechanism, inspired by distributed ledger technology, to validate and converge these outputs, treating each RM as a black-box peer. Building on the Hashgraph consensus algorithm, our approach employs gossip-about-gossip communication and virtual voting to achieve agreement among an ensemble of RMs. We present an architectural design for a prototype system in which RMs iteratively exchange and update their answers, using information from each round to improve accuracy and confidence in subsequent rounds. This approach goes beyond simple majority voting by incorporating the knowledge and cross-verification content of every model. We justify the feasibility of this Hashgraph-inspired consensus for AI ensembles and outline its advantages over traditional ensembling techniques in reducing nonfactual outputs. Preliminary considerations for implementation, evaluation criteria for convergence and accuracy, and potential challenges are discussed. The proposed mechanism demonstrates a promising direction for multi-agent AI systems to self-validate and deliver high-fidelity responses in complex tasks.
- Abstract(参考訳): 大規模言語モデル(LLM)からの一貫性のない出力と幻覚は、信頼できるAIシステムにとって大きな障害となる。
OpenAI、Google、Anthropic、DeepSeek、xAIなどの異なるプロプライエタリな推論モデル(RM)が同じ複雑な要求を受けた場合、トレーニングと推論のバリエーションによって、しばしば異なる結果が生成される。
本稿では,分散台帳技術にインスパイアされた新しいコンセンサス機構を提案し,各RMをブラックボックスピアとして扱う。
提案手法は,Hashgraphコンセンサスアルゴリズムに基づくゴシップ・ア・ゴシップ通信と仮想投票を用いて,RMのアンサンブル間の合意を実現する。
本稿では,各ラウンドからの情報を用いて,RMが反復的に回答を交換・更新し,その後のラウンドにおける精度と信頼性を向上させるプロトタイプシステムのアーキテクチャ設計について述べる。
このアプローチは、すべてのモデルの知識と相互検証コンテンツを取り入れることで、単純な多数決に留まらない。
私たちは、このHashgraphにインスパイアされた、AIアンサンブルに対するコンセンサスの実現可能性を正当化し、非現実的なアウトプットを減らすという従来のアンサンブル技術に対するそのアドバンテージを概説します。
実装の予備的考察、収束と精度の評価基準、潜在的な課題について論じる。
提案機構は,多エージェントAIシステムにおいて,複雑なタスクにおいて高忠実度応答を自己検証し,提供する上で有望な方向を示す。
関連論文リスト
- A Survey on All-in-One Image Restoration: Taxonomy, Evaluation and Future Trends [67.43992456058541]
画像復元(IR)とは、ノイズ、ぼかし、気象効果などの劣化を除去しながら、画像の視覚的品質を改善する過程である。
従来のIR手法は、一般的に特定の種類の劣化をターゲットとしており、複雑な歪みを伴う現実のシナリオにおいて、その効果を制限している。
オールインワン画像復元(AiOIR)パラダイムが登場し、複数の劣化タイプに順応的に対処する統一されたフレームワークを提供する。
論文 参考訳(メタデータ) (2024-10-19T11:11:09Z) - Networks of Networks: Complexity Class Principles Applied to Compound AI Systems Design [63.24275274981911]
多くの言語モデル推論コールからなる複合AIシステムは、ますます採用されている。
本研究では,提案した回答の生成と正当性検証の区別を中心に,ネットワークネットワーク(NoN)と呼ばれるシステムを構築した。
我々は,Kジェネレータを備えた検証器ベースの判定器NoNを導入し,"Best-of-K"あるいは"judge-based"複合AIシステムのインスタンス化を行う。
論文 参考訳(メタデータ) (2024-07-23T20:40:37Z) - LoRA-Ensemble: Efficient Uncertainty Modelling for Self-attention Networks [52.46420522934253]
本稿では,自己注意ネットワークのためのパラメータ効率の高いディープアンサンブル手法であるLoRA-Ensembleを紹介する。
全メンバー間で重みを共有できる1つの事前学習型自己注意ネットワークを利用することで、注意投影のために、メンバー固有の低ランク行列を訓練する。
提案手法は明示的なアンサンブルよりも優れたキャリブレーションを示し,様々な予測タスクやデータセットに対して類似あるいは良好な精度を実現する。
論文 参考訳(メタデータ) (2024-05-23T11:10:32Z) - Probabilistic ML Verification via Weighted Model Integration [11.812078181471634]
機械学習モデルの確率形式検証(PFV)はその初期段階にある。
重み付きモデル統合(WMI)に基づくMLシステムのPFV統合フレームワークを提案する。
ML検証文献におけるスケーリング手法が,本来の範囲を超えていかに一般化できるかを示す。
論文 参考訳(メタデータ) (2024-02-07T14:24:04Z) - Cloud-based XAI Services for Assessing Open Repository Models Under Adversarial Attacks [7.500941533148728]
計算コンポーネントとアセスメントタスクをパイプラインにカプセル化するクラウドベースのサービスフレームワークを提案する。
我々は、AIモデルの5つの品質特性を評価するために、XAIサービスの応用を実証する。
論文 参考訳(メタデータ) (2024-01-22T00:37:01Z) - Towards a Responsible AI Metrics Catalogue: A Collection of Metrics for
AI Accountability [28.67753149592534]
本研究は,包括的メトリクスカタログへの取り組みを導入することで,説明責任のギャップを埋めるものである。
我々のカタログは、手続き的整合性を支えるプロセスメトリクス、必要なツールやフレームワークを提供するリソースメトリクス、AIシステムのアウトプットを反映する製品メトリクスを記述しています。
論文 参考訳(メタデータ) (2023-11-22T04:43:16Z) - LAMBO: Large AI Model Empowered Edge Intelligence [71.56135386994119]
次世代エッジインテリジェンスは、オフロード技術を通じて様々なアプリケーションに恩恵をもたらすことが期待されている。
従来のオフロードアーキテクチャは、不均一な制約、部分的な認識、不確実な一般化、トラクタビリティの欠如など、いくつかの問題に直面している。
我々は、これらの問題を解決するための10億以上のパラメータを持つLarge AI Model-Based Offloading (LAMBO)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T07:25:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。