論文の概要: zkFinGPT: Zero-Knowledge Proofs for Financial Generative Pre-trained Transformers
- arxiv url: http://arxiv.org/abs/2601.15716v1
- Date: Thu, 22 Jan 2026 07:37:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.527993
- Title: zkFinGPT: Zero-Knowledge Proofs for Financial Generative Pre-trained Transformers
- Title(参考訳): zkFinGPT:ファイナンシャル・ジェネレーティブ・プレトレーニング・トランスのためのゼロ知識証明
- Authors: Xiao-Yang Liu, Ningjie Li, Keyi Wang, Xiaoli Zhi, Weiqin Tong,
- Abstract要約: マルチモーダル機能を備えたFinGPT(Financial Generative Pre-trained Transformer)は、様々な金融アプリケーションで採用されている。
モデル重みの知的特性とトレーニングコーパスの著作権とベンチマーク問題により、GPTのモデル重みの正当性とモデル出力の信頼性を検証することは、非常に難しい課題である。
我々は、ゼロ知識証明(ZKP)を高価値の金融ユースケースに適用し、データのプライバシ保護と検証を可能にする新しいzkFinGPT方式を提案する。
- 参考スコア(独自算出の注目度): 6.543886892061592
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Financial Generative Pre-trained Transformers (FinGPT) with multimodal capabilities are now being increasingly adopted in various financial applications. However, due to the intellectual property of model weights and the copyright of training corpus and benchmarking questions, verifying the legitimacy of GPT's model weights and the credibility of model outputs is a pressing challenge. In this paper, we introduce a novel zkFinGPT scheme that applies zero-knowledge proofs (ZKPs) to high-value financial use cases, enabling verification while protecting data privacy. We describe how zkFinGPT will be applied to three financial use cases. Our experiments on two existing packages reveal that zkFinGPT introduces substantial computational overhead that hinders its real-world adoption. E.g., for LLama3-8B model, it generates a commitment file of $7.97$MB using $531$ seconds, and takes $620$ seconds to prove and $2.36$ seconds to verify.
- Abstract(参考訳): マルチモーダル機能を備えたFinGPT(Financial Generative Pre-trained Transformer)は、様々な金融アプリケーションで採用されている。
しかし、モデル重みの知的特性、トレーニングコーパスの著作権、およびベンチマーク問題により、GPTのモデル重みの正当性およびモデル出力の信頼性を検証することは、非常に難しい課題である。
本稿では,ゼロ知識証明(ZKP)を高価値な金融ユースケースに適用し,データのプライバシ保護と検証を可能にする新しいzkFinGPT方式を提案する。
zkFinGPTを3つの金融ユースケースに適用する方法について説明する。
既存の2つのパッケージに対する実験により、zkFinGPTは実際の導入を妨げるかなりの計算オーバーヘッドをもたらすことが明らかとなった。
例えば、LLama3-8Bモデルでは、531$秒で7.97$MBのコミットメントファイルを生成し、検証には620$秒、検証には2.36$秒を要する。
関連論文リスト
- FISCAL: Financial Synthetic Claim-document Augmented Learning for Efficient Fact-Checking [0.34797121357690153]
FISCALは金融ファクトチェックに適した合成データを生成するためのフレームワークである。
MiniCheck-FISCALは数値ファイナンシャルクレームの軽量検証器である。
論文 参考訳(メタデータ) (2025-11-24T20:11:44Z) - FinBERT2: A Specialized Bidirectional Encoder for Bridging the Gap in Finance-Specific Deployment of Large Language Models [24.430050834440998]
FinBERT2は、32bトークンの高品質な財務特化コーパスで事前訓練された、特殊な双方向エンコーダである。
差別的微調整モデル(Fin-Labelers)は、他の(Fin)BERTモデルよりも0.4%-3.3%、LLMを9.7%-12.3%、財務分類5つのタスクで上回っている。
Fin-TopicModelは、金融タイトルの優れたクラスタリングとトピック表現を可能にする。
論文 参考訳(メタデータ) (2025-05-31T13:59:44Z) - KFinEval-Pilot: A Comprehensive Benchmark Suite for Korean Financial Language Understanding [6.3604109210772934]
KFinEval-Pilotは、韓国の金融ドメインで大規模言語モデル(LLM)を評価するために設計されたベンチマークスイートである。
金融知識、法的推論、金融毒性の3つの重要な領域に1,000以上のキュレートされた質問が含まれている。
論文 参考訳(メタデータ) (2025-04-17T00:12:58Z) - FinTSB: A Comprehensive and Practical Benchmark for Financial Time Series Forecasting [58.70072722290475]
ファイナンシャル・タイム・シリーズ(FinTS)は、人間の脳を増強した意思決定の行動を記録する。
FinTSBは金融時系列予測のための総合的で実用的なベンチマークである。
論文 参考訳(メタデータ) (2025-02-26T05:19:16Z) - DecodingTrust: A Comprehensive Assessment of Trustworthiness in GPT
Models [92.6951708781736]
本稿では,GPT-4とGPT-3.5に着目した大規模言語モデルの総合的信頼性評価を提案する。
GPTモデルは、有害で偏りのある出力を生成し、個人情報を漏らすために、容易に誤解され得る。
我々の研究は、GPTモデルの総合的な信頼性評価を示し、信頼性のギャップに光を当てている。
論文 参考訳(メタデータ) (2023-06-20T17:24:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。