論文の概要: zkFinGPT: Zero-Knowledge Proofs for Financial Generative Pre-trained Transformers
- arxiv url: http://arxiv.org/abs/2601.15716v1
- Date: Thu, 22 Jan 2026 07:37:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.527993
- Title: zkFinGPT: Zero-Knowledge Proofs for Financial Generative Pre-trained Transformers
- Title(参考訳): zkFinGPT:ファイナンシャル・ジェネレーティブ・プレトレーニング・トランスのためのゼロ知識証明
- Authors: Xiao-Yang Liu, Ningjie Li, Keyi Wang, Xiaoli Zhi, Weiqin Tong,
- Abstract要約: マルチモーダル機能を備えたFinGPT(Financial Generative Pre-trained Transformer)は、様々な金融アプリケーションで採用されている。
モデル重みの知的特性とトレーニングコーパスの著作権とベンチマーク問題により、GPTのモデル重みの正当性とモデル出力の信頼性を検証することは、非常に難しい課題である。
我々は、ゼロ知識証明(ZKP)を高価値の金融ユースケースに適用し、データのプライバシ保護と検証を可能にする新しいzkFinGPT方式を提案する。
- 参考スコア(独自算出の注目度): 6.543886892061592
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Financial Generative Pre-trained Transformers (FinGPT) with multimodal capabilities are now being increasingly adopted in various financial applications. However, due to the intellectual property of model weights and the copyright of training corpus and benchmarking questions, verifying the legitimacy of GPT's model weights and the credibility of model outputs is a pressing challenge. In this paper, we introduce a novel zkFinGPT scheme that applies zero-knowledge proofs (ZKPs) to high-value financial use cases, enabling verification while protecting data privacy. We describe how zkFinGPT will be applied to three financial use cases. Our experiments on two existing packages reveal that zkFinGPT introduces substantial computational overhead that hinders its real-world adoption. E.g., for LLama3-8B model, it generates a commitment file of $7.97$MB using $531$ seconds, and takes $620$ seconds to prove and $2.36$ seconds to verify.
- Abstract(参考訳): マルチモーダル機能を備えたFinGPT(Financial Generative Pre-trained Transformer)は、様々な金融アプリケーションで採用されている。
しかし、モデル重みの知的特性、トレーニングコーパスの著作権、およびベンチマーク問題により、GPTのモデル重みの正当性およびモデル出力の信頼性を検証することは、非常に難しい課題である。
本稿では,ゼロ知識証明(ZKP)を高価値な金融ユースケースに適用し,データのプライバシ保護と検証を可能にする新しいzkFinGPT方式を提案する。
zkFinGPTを3つの金融ユースケースに適用する方法について説明する。
既存の2つのパッケージに対する実験により、zkFinGPTは実際の導入を妨げるかなりの計算オーバーヘッドをもたらすことが明らかとなった。
例えば、LLama3-8Bモデルでは、531$秒で7.97$MBのコミットメントファイルを生成し、検証には620$秒、検証には2.36$秒を要する。
関連論文リスト
- FISCAL: Financial Synthetic Claim-document Augmented Learning for Efficient Fact-Checking [0.34797121357690153]
FISCALは金融ファクトチェックに適した合成データを生成するためのフレームワークである。
MiniCheck-FISCALは数値ファイナンシャルクレームの軽量検証器である。
論文 参考訳(メタデータ) (2025-11-24T20:11:44Z) - Probabilistically Tightened Linear Relaxation-based Perturbation Analysis for Neural Network Verification [83.25968588249776]
本稿では,LiRPAに基づく手法とサンプリングに基づく手法を組み合わせることで,厳密な中間到達性集合を計算できる新しいフレームワークを提案する。
無視可能な計算オーバーヘッドでは、$textttPT-LiRPA$は推定された到達可能な集合を利用し、ニューラルネットワークの出力の上下線形境界を著しく締め付ける。
論文 参考訳(メタデータ) (2025-07-07T18:45:53Z) - FinBERT2: A Specialized Bidirectional Encoder for Bridging the Gap in Finance-Specific Deployment of Large Language Models [24.430050834440998]
FinBERT2は、32bトークンの高品質な財務特化コーパスで事前訓練された、特殊な双方向エンコーダである。
差別的微調整モデル(Fin-Labelers)は、他の(Fin)BERTモデルよりも0.4%-3.3%、LLMを9.7%-12.3%、財務分類5つのタスクで上回っている。
Fin-TopicModelは、金融タイトルの優れたクラスタリングとトピック表現を可能にする。
論文 参考訳(メタデータ) (2025-05-31T13:59:44Z) - KFinEval-Pilot: A Comprehensive Benchmark Suite for Korean Financial Language Understanding [6.3604109210772934]
KFinEval-Pilotは、韓国の金融ドメインで大規模言語モデル(LLM)を評価するために設計されたベンチマークスイートである。
金融知識、法的推論、金融毒性の3つの重要な領域に1,000以上のキュレートされた質問が含まれている。
論文 参考訳(メタデータ) (2025-04-17T00:12:58Z) - FinTSB: A Comprehensive and Practical Benchmark for Financial Time Series Forecasting [58.70072722290475]
ファイナンシャル・タイム・シリーズ(FinTS)は、人間の脳を増強した意思決定の行動を記録する。
FinTSBは金融時系列予測のための総合的で実用的なベンチマークである。
論文 参考訳(メタデータ) (2025-02-26T05:19:16Z) - BreakGPT: Leveraging Large Language Models for Predicting Asset Price Surges [55.2480439325792]
本稿では,時系列予測や資産価格の急上昇の予測に特化して,新たな大規模言語モデル(LLM)アーキテクチャであるBreakGPTを紹介する。
我々は、最小限のトレーニングで財務予測を行うための有望なソリューションとしてBreakGPTを紹介し、局所的およびグローバルな時間的依存関係をキャプチャする強力な競合相手として紹介する。
論文 参考訳(メタデータ) (2024-11-09T05:40:32Z) - Open-FinLLMs: Open Multimodal Large Language Models for Financial Applications [88.96861155804935]
オープンソースのマルチモーダル金融 LLM である textitOpen-FinLLMs を紹介する。
FinLLaMAは52ビリオンのトーケンコーパス、FinLLaMA-Instructは573Kの財務命令で微調整され、FinLLaVAは1.43Mのマルチモーダルチューニングペアで強化されている。
我々は、14の財務タスク、30のデータセット、および4つのマルチモーダルタスクにわたるOpen-FinLLMをゼロショット、少数ショット、教師付き微調整設定で評価した。
論文 参考訳(メタデータ) (2024-08-20T16:15:28Z) - FinPT: Financial Risk Prediction with Profile Tuning on Pretrained
Foundation Models [32.7825479037623]
FinPTは、金融リスク予測のための新しいアプローチであり、大規模な事前訓練された基礎モデルに基づいてプロファイルチューニングを行う。
FinBenchは、デフォルト、詐欺、チャーンといった金融リスクに関する高品質なデータセットのセットである。
論文 参考訳(メタデータ) (2023-07-22T09:27:05Z) - DecodingTrust: A Comprehensive Assessment of Trustworthiness in GPT
Models [92.6951708781736]
本稿では,GPT-4とGPT-3.5に着目した大規模言語モデルの総合的信頼性評価を提案する。
GPTモデルは、有害で偏りのある出力を生成し、個人情報を漏らすために、容易に誤解され得る。
我々の研究は、GPTモデルの総合的な信頼性評価を示し、信頼性のギャップに光を当てている。
論文 参考訳(メタデータ) (2023-06-20T17:24:23Z) - Quantum computational finance: martingale asset pricing for incomplete
markets [69.73491758935712]
金融の価格問題に様々な量子技術を適用することができることを示す。
従来の研究と異なる3つの方法について議論する。
論文 参考訳(メタデータ) (2022-09-19T09:22:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。