論文の概要: When FinTech Meets Privacy: Securing Financial LLMs with Differential Private Fine-Tuning
- arxiv url: http://arxiv.org/abs/2509.08995v1
- Date: Wed, 10 Sep 2025 20:43:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-12 16:52:24.148076
- Title: When FinTech Meets Privacy: Securing Financial LLMs with Differential Private Fine-Tuning
- Title(参考訳): FinTechがプライバシに出会った時 - 個人差分調整による金融LLMのセキュア化
- Authors: Sichen Zhu, Hoyeung Leung, Xiaoyi Wang, Jia Wei, Honghui Xu,
- Abstract要約: 我々は、デバイス上での金融アプリケーションのためのプライバシー強化軽量 LLM DPFinLLM を提案する。
堅牢な差分プライバシーメカニズムと、最先端のモデルにインスパイアされた合理化されたアーキテクチャを組み合わせる。
プライバシー侵害からユーザーデータを保護できるだけでなく、さまざまな財務タスクにおけるハイパフォーマンスも確保できる。
- 参考スコア(独自算出の注目度): 11.84777855347928
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The integration of Large Language Models (LLMs) into financial technology (FinTech) has revolutionized the analysis and processing of complex financial data, driving advancements in real-time decision-making and analytics. With the growing trend of deploying AI models on edge devices for financial applications, ensuring the privacy of sensitive financial data has become a significant challenge. To address this, we propose DPFinLLM, a privacy-enhanced, lightweight LLM specifically designed for on-device financial applications. DPFinLLM combines a robust differential privacy mechanism with a streamlined architecture inspired by state-of-the-art models, enabling secure and efficient processing of financial data. This proposed DPFinLLM can not only safeguard user data from privacy breaches but also ensure high performance across diverse financial tasks. Extensive experiments on multiple financial sentiment datasets validate the effectiveness of DPFinLLM, demonstrating its ability to achieve performance comparable to fully fine-tuned models, even under strict privacy constraints.
- Abstract(参考訳): LLM(Large Language Models)と金融技術(FinTech)の統合は、複雑な金融データの分析と処理に革命をもたらし、リアルタイム意思決定と分析の進歩を促した。
金融アプリケーションのためのエッジデバイスにAIモデルをデプロイする傾向が高まり、機密性の高い金融データのプライバシを確保することが大きな課題となっている。
そこで本研究では,デバイス上での金融アプリケーションに特化して設計されたプライバシ強化軽量 LLM DPFinLLM を提案する。
DPFinLLMは、堅牢な微分プライバシー機構と最先端のモデルにインスパイアされた合理化されたアーキテクチャを組み合わせることで、金融データのセキュアで効率的な処理を可能にする。
この提案されたDPFinLLMは、プライバシ侵害からユーザデータを保護できるだけでなく、さまざまな財務タスクにおけるハイパフォーマンスを保証できる。
複数の財務感情データセットに関する大規模な実験はDPFinLLMの有効性を検証し、厳格なプライバシー制約の下でも完全に調整されたモデルに匹敵するパフォーマンスを達成する能力を示している。
関連論文リスト
- QuantMCP: Grounding Large Language Models in Verifiable Financial Reality [0.43512163406552007]
大規模言語モデル(LLM)は、財務分析と意思決定に革命をもたらすという大きな約束を持っている。
しかし、その直接的な適用は、データ幻覚の問題や、リアルタイムで検証可能な財務情報へのアクセスの欠如によって、しばしば妨げられている。
本稿では,金融現実にLLMを厳格に活用するための新しいフレームワークであるQuantMCPを紹介する。
論文 参考訳(メタデータ) (2025-06-07T01:52:39Z) - Privacy-Preserving Credit Card Approval Using Homomorphic SVM: Toward Secure Inference in FinTech Applications [0.5991851254194097]
PP-FinTechは金融アプリケーションのためのプライバシー保護スキームである。
CKKSベースの暗号化ソフトマージンSVMを採用し、非線形パターンをモデル化するためのハイブリッドカーネルで拡張されている。
論文 参考訳(メタデータ) (2025-05-09T09:46:56Z) - Demystifying Domain-adaptive Post-training for Financial LLMs [79.581577578952]
FINDAPは、大規模言語モデル(LLM)のドメイン適応後学習に関する体系的できめ細かな研究である
このアプローチは、FinCap、FinRec、FinTrain、FinEvalの4つの重要なコンポーネントで構成されています。
結果として得られるモデルであるLlama-Finは、幅広い財務タスクで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-01-09T04:26:15Z) - Federated Diffusion Modeling with Differential Privacy for Tabular Data Synthesis [8.857443660746979]
本稿では,差分プライバシー,フェデレーション学習,拡散確率モデルを新たに統合したDP-FedTabDiffフレームワークを紹介する。
このフレームワークは、データユーティリティを維持しながら、プライバシ規制の遵守を保証する。
論文 参考訳(メタデータ) (2024-12-20T17:30:58Z) - Open-FinLLMs: Open Multimodal Large Language Models for Financial Applications [88.96861155804935]
オープンソースのマルチモーダル金融 LLM である textitOpen-FinLLMs を紹介する。
FinLLaMAは52ビリオンのトーケンコーパス、FinLLaMA-Instructは573Kの財務命令で微調整され、FinLLaVAは1.43Mのマルチモーダルチューニングペアで強化されている。
我々は、14の財務タスク、30のデータセット、および4つのマルチモーダルタスクにわたるOpen-FinLLMをゼロショット、少数ショット、教師付き微調整設定で評価した。
論文 参考訳(メタデータ) (2024-08-20T16:15:28Z) - SNFinLLM: Systematic and Nuanced Financial Domain Adaptation of Chinese Large Language Models [6.639972934967109]
大規模言語モデル (LLM) は、金融業界において自然言語処理を推進するための強力なツールとなっている。
SNFinLLMという中国の金融ドメイン向けに設計された新しい大規模言語モデルを提案する。
SNFinLLMは、質問への回答、財務調査レポートの要約、感情の分析、財務計算の実行など、ドメイン固有のタスクに優れています。
論文 参考訳(メタデータ) (2024-08-05T08:24:24Z) - AlphaFin: Benchmarking Financial Analysis with Retrieval-Augmented Stock-Chain Framework [48.3060010653088]
我々はAlphaFinデータセットをリリースし、従来の研究データセット、リアルタイム財務データ、手書きのチェーン・オブ・プリート(CoT)データを組み合わせています。
次に、AlphaFinデータセットを使用して、金融分析タスクを効果的に処理するために、Stock-Chainと呼ばれる最先端の手法をベンチマークします。
論文 参考訳(メタデータ) (2024-03-19T09:45:33Z) - PIXIU: A Large Language Model, Instruction Data and Evaluation Benchmark
for Finance [63.51545277822702]
PIXIUは、命令データ付き微調整LLaMAに基づく最初の金融大規模言語モデル(LLM)を含む包括的なフレームワークである。
我々はLLaMAを細調整してFinMAを提案する。
我々は、FinMAと既存のLLMを詳細に分析し、重要な財政課題に対処する際の長所と短所を明らかにする。
論文 参考訳(メタデータ) (2023-06-08T14:20:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。