論文の概要: FiMI: A Domain-Specific Language Model for Indian Finance Ecosystem
- arxiv url: http://arxiv.org/abs/2602.05794v1
- Date: Thu, 05 Feb 2026 15:48:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:09.016833
- Title: FiMI: A Domain-Specific Language Model for Indian Finance Ecosystem
- Title(参考訳): インド金融エコシステムのためのドメイン特化言語モデルFiMI
- Authors: Aboli Kathar, Aman Kumar, Anusha Kamath, Araveeti Srujan, Ashish Sharma, Chandra Bhushan, Dilip Asbe, Divya Sorate, Duddu Prasanth Kumar, Evan Acharya, Harsh Sharma, Hrithik Kadam, Kanishk Singla, Keyur Doshi, Kiran Praveen, Kolisetty Krishna SK, Krishanu Adhikary, Lokesh MPT, Mayurdeep Sonowal, Nadeem Shaikh, Navya Prakash, Nimit Kothari, Nitin Kukreja, Prashant Devadiga, Rakesh Paul, Ratanjeet Pratap Chauhan, Raunak Kalani, Raviraj Joshi, Shamanth MH, Shantanu Pandey, Shubham Soni, Siddharth Dixit, Smriti Jopat, Sunil Patel, Suraj Singh, Suvradip Paul, Tulasi Pilla, Utkarsh Vaidya, Vineeth Nambiar, Vishal Kanvaty, Yatharth Dedhia,
- Abstract要約: FiMIは、インドのデジタル決済システム向けに開発されたドメイン特化金融言語モデルである。
We developed two modelvariants: FiMI Base and FiMI Instruct。
- 参考スコア(独自算出の注目度): 4.622905262357194
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present FiMI (Finance Model for India), a domain-specialized financial language model developed for Indian digital payment systems. We develop two model variants: FiMI Base and FiMI Instruct. FiMI adapts the Mistral Small 24B architecture through a multi-stage training pipeline, beginning with continuous pre-training on 68 Billion tokens of curated financial, multilingual (English, Hindi, Hinglish), and synthetic data. This is followed by instruction fine-tuning and domain-specific supervised fine-tuning focused on multi-turn, tool-driven conversations that model real-world workflows, such as transaction disputes and mandate lifecycle management. Evaluations reveal that FiMI Base achieves a 20% improvement over the Mistral Small 24B Base model on finance reasoning benchmark, while FiMI Instruct outperforms the Mistral Small 24B Instruct model by 87% on domain-specific tool-calling. Moreover, FiMI achieves these significant domain gains while maintaining comparable performance to models of similar size on general benchmarks.
- Abstract(参考訳): インドにおけるデジタル決済システム向けに開発されたドメイン特化金融言語モデルであるFiMI(Finance Model for India)を提案する。
We developed two modelvariants: FiMI Base and FiMI Instruct。
FiMIは、マルチステージのトレーニングパイプラインを通じてMistral Small 24Bアーキテクチャを適用し、68億の金融、多言語(英語、ヒンディー語、ヒングリッシュ語)、合成データのトークンを継続的に事前トレーニングする。
続いて、トランザクション競合や管理ライフサイクル管理といった現実世界のワークフローをモデル化するマルチターン、ツール駆動の会話に焦点を当てた、命令の微調整とドメイン固有の教師付き微調整が続く。
また,FiMIインストラクトはMistral Small 24Bインストラクトモデルよりも87%,ドメイン固有のツールコールでは87%向上した。
さらに、FiMIは、一般的なベンチマークで同様のサイズのモデルに匹敵する性能を維持しながら、これらの重要なドメインゲインを達成する。
関連論文リスト
- MiMo-Embodied: X-Embodied Foundation Model Technical Report [53.335119478104644]
私たちはMiMo-Embodiedをオープンソースとして公開しました。
MiMo-Embodiedはタスクプランニング、アフォーマンス予測、空間理解において17のAIベンチマークにまたがる新たな記録を設定している。
これらのタスク全体で、MiMo-Embodiedは既存のオープンソース、クローズドソース、および特別なベースラインを著しく上回っている。
論文 参考訳(メタデータ) (2025-11-20T16:34:55Z) - SNFinLLM: Systematic and Nuanced Financial Domain Adaptation of Chinese Large Language Models [6.639972934967109]
大規模言語モデル (LLM) は、金融業界において自然言語処理を推進するための強力なツールとなっている。
SNFinLLMという中国の金融ドメイン向けに設計された新しい大規模言語モデルを提案する。
SNFinLLMは、質問への回答、財務調査レポートの要約、感情の分析、財務計算の実行など、ドメイン固有のタスクに優れています。
論文 参考訳(メタデータ) (2024-08-05T08:24:24Z) - Tele-FLM Technical Report [96.19923831660266]
52Bのオープンソース多言語大言語モデルであるTele-FLM(別名FLM-2)を紹介する。
安定的で効率的な事前訓練のパラダイムと、事実判断能力の強化が特徴である。
これは、Llama2-70BやDeepSeek-67Bのようなより大きな事前学習FLOPを含む強力なオープンソースモデルに匹敵する。
論文 参考訳(メタデータ) (2024-04-25T14:34:47Z) - Construction of Domain-specified Japanese Large Language Model for Finance through Continual Pre-training [1.4491649618823355]
本研究は, 継続的な事前学習を通じて, 我が国の金融特化LDMを構築することを目的とする。
ベースモデルとして、日本の金融ベンチマークで最先端のパフォーマンスを達成した日本のLLMを用いた。
チューニングされたモデルは、日本の金融ベンチマークのオリジナルのモデルよりも優れたパフォーマンスを示した。
論文 参考訳(メタデータ) (2024-04-16T13:26:32Z) - DISC-FinLLM: A Chinese Financial Large Language Model based on Multiple
Experts Fine-tuning [74.99318727786337]
金融大規模言語モデル(LLM)を構築するための多言語エキスパートファインチューニングフレームワークを提案する。
DISC-FIN-SFTという金融インストラクションチューニングデータセットを構築し、4つのカテゴリ(コンサルト、NLPタスク、コンピューティング、検索強化ジェネレーション)のインストラクションサンプルを含む。
複数のベンチマークで評価した結果, 様々な財務シナリオにおいて, ベースラインモデルよりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-10-23T11:33:41Z) - CFGPT: Chinese Financial Assistant with Large Language Model [21.54229667774752]
CFGPTと命名された中国の金融生成事前学習型トランスフォーマフレームワークを提案する。
CFDataは、事前トレーニングデータセットと教師付き微調整データセットの両方で構成されている。
CFLLMはCFDataで2段階の訓練を受け、事前訓練と微調整を継続する。
論文 参考訳(メタデータ) (2023-09-19T14:34:01Z) - DA-VEGAN: Differentiably Augmenting VAE-GAN for microstructure
reconstruction from extremely small data sets [110.60233593474796]
DA-VEGANは2つの中心的なイノベーションを持つモデルである。
$beta$-variational autoencoderはハイブリッドGANアーキテクチャに組み込まれている。
このアーキテクチャに特化して、独自の差別化可能なデータ拡張スキームが開発されている。
論文 参考訳(メタデータ) (2023-02-17T08:49:09Z) - WHEN FLUE MEETS FLANG: Benchmarks and Large Pre-trained Language Model
for Financial Domain [42.093876880881886]
ドメイン固有型金融LANGuageモデル(FLANG)を提案する。
ファイナンシャルキーワードとフレーズを使用して、スパン境界目的とインフィリング目的ととともに、マスキングを改善する。
私たちのモデル、コード、ベンチマークデータはGithubとHuggingfaceで公開されています。
論文 参考訳(メタデータ) (2022-10-31T18:35:18Z) - Scalable and Efficient MoE Training for Multitask Multilingual Models [55.987536562357086]
我々は,MoEモデルを数兆のパラメータに効率的にスケールできるシステムを開発した。
また,MoEサンプルの効率を向上させるための新たなトレーニング手法を提案し,時間効率を向上させるために専門家の刈り取り戦略を活用する。
50言語で100億のパラメータで訓練されたモデルは、機械翻訳(MT)および多言語自然言語生成タスクにおける最先端のパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2021-09-22T00:57:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。