論文の概要: InvestLM: A Large Language Model for Investment using Financial Domain
Instruction Tuning
- arxiv url: http://arxiv.org/abs/2309.13064v1
- Date: Fri, 15 Sep 2023 02:59:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-01 12:26:32.078868
- Title: InvestLM: A Large Language Model for Investment using Financial Domain
Instruction Tuning
- Title(参考訳): investlm:ファイナンシャルドメイン命令チューニングを用いた投資のための大型言語モデル
- Authors: Yi Yang, Yixuan Tang, Kar Yan Tam
- Abstract要約: 我々はLLaMA-65B(Touvron et al., 2023)に基づく新たな金融領域大言語モデルInvestLMを提案する。
より少ないアライメントにインスパイアされた我々は、小さなが多様な命令データセットを手作業でキュレートし、幅広い金融関連トピックをカバーした。
InvestLMは、財務文書の理解における強力な能力を示し、投資関連の質問に対する有益な回答を提供する。
- 参考スコア(独自算出の注目度): 19.22852919096857
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a new financial domain large language model, InvestLM, tuned on
LLaMA-65B (Touvron et al., 2023), using a carefully curated instruction dataset
related to financial investment. Inspired by less-is-more-for-alignment (Zhou
et al., 2023), we manually curate a small yet diverse instruction dataset,
covering a wide range of financial related topics, from Chartered Financial
Analyst (CFA) exam questions to SEC filings to Stackexchange quantitative
finance discussions. InvestLM shows strong capabilities in understanding
financial text and provides helpful responses to investment related questions.
Financial experts, including hedge fund managers and research analysts, rate
InvestLM's response as comparable to those of state-of-the-art commercial
models (GPT-3.5, GPT-4 and Claude-2). Zero-shot evaluation on a set of
financial NLP benchmarks demonstrates strong generalizability. From a research
perspective, this work suggests that a high-quality domain specific LLM can be
tuned using a small set of carefully curated instructions on a well-trained
foundation model, which is consistent with the Superficial Alignment Hypothesis
(Zhou et al., 2023). From a practical perspective, this work develops a
state-of-the-art financial domain LLM with superior capability in understanding
financial texts and providing helpful investment advice, potentially enhancing
the work efficiency of financial professionals. We release the model parameters
to the research community.
- Abstract(参考訳): 我々はLLaMA-65B(Touvron et al., 2023)を基にした新たな金融分野大規模言語モデルInvestLMを提案する。
2023年、Zhouらにインスパイアされた我々は、チャータード・ファイナンシャル・アナリティスト(CFA)の試験問題からSECの提出書類、Stackexchangeの量的金融に関する議論まで、幅広い金融関連トピックをカバーした、小規模で多様な指導データセットを手作業でキュレートした。
InvestLMは、財務文書の理解における強力な能力を示し、投資関連の質問に対する有益な回答を提供する。
ヘッジファンドマネジャーやリサーチアナリストを含む金融専門家は、InvestLMの反応を最先端の商業モデル(GPT-3.5、GPT-4、Claude-2)に匹敵するものと評価している。
財務NLPベンチマークのゼロショット評価は、強い一般化性を示す。
研究の観点からは、表面的アライメント仮説(zhou et al., 2023)と一致した、十分に訓練された基礎モデル上で、注意深く調整された命令セットを用いて、高品質なドメイン固有llmを調整可能であることを示唆する。
実践的な観点から、この研究は、金融文献の理解と有益な投資アドバイスの提供、金融専門家の作業効率の向上に優れた、最先端の金融ドメイン LLM を開発する。
モデルパラメータを研究コミュニティにリリースします。
関連論文リスト
- Open-FinLLMs: Open Multimodal Large Language Models for Financial Applications [90.67346776473241]
大規模言語モデル(LLM)は高度な金融アプリケーションを持っているが、十分な財務知識がなく、テーブルや時系列データといったマルチモーダル入力に関わるタスクに苦労することが多い。
我々は、総合的な財務知識をテキスト、テーブル、時系列データに組み込む一連の金融LLMであるtextitOpen-FinLLMsを紹介する。
また、複雑な財務データ型を扱うために、1.43Mの画像テキスト命令で訓練されたマルチモーダルLLMであるFinLLaVAについても紹介する。
論文 参考訳(メタデータ) (2024-08-20T16:15:28Z) - CFinBench: A Comprehensive Chinese Financial Benchmark for Large Language Models [61.324062412648075]
CFinBenchは、中国の文脈下での大規模言語モデル(LLM)の財務知識を評価するための評価ベンチマークである。
この質問は、43の第二級カテゴリーにまたがる99,100の質問で構成されており、3つの質問タイプがある: シングルチョイス、マルチチョイス、そして判断である。
結果は、GPT4といくつかの中国指向モデルがベンチマークをリードし、平均精度は60.16%であることを示している。
論文 参考訳(メタデータ) (2024-07-02T14:34:36Z) - A Survey of Large Language Models for Financial Applications: Progress, Prospects and Challenges [60.546677053091685]
大規模言語モデル(LLM)は金融分野における機械学習アプリケーションに新たな機会を開放した。
我々は、従来のプラクティスを変革し、イノベーションを促進する可能性に焦点を当て、様々な金融業務におけるLLMの適用について検討する。
本稿では,既存の文献を言語タスク,感情分析,財務時系列,財務推論,エージェントベースモデリング,その他の応用分野に分類するための調査を紹介する。
論文 参考訳(メタデータ) (2024-06-15T16:11:35Z) - SuperCLUE-Fin: Graded Fine-Grained Analysis of Chinese LLMs on Diverse Financial Tasks and Applications [17.34850312139675]
SC-Finは中国原産の金融大規模言語モデル(FLM)に適した先駆的評価フレームワークである
6つの金融アプリケーションドメインと25の専門タスクにわたるFLMを評価する。
実生活シナリオを模倣するマルチターンでオープンな会話を用いて、SC-Finは様々な基準に基づいてモデルを測定する。
論文 参考訳(メタデータ) (2024-04-29T19:04:35Z) - FinBen: A Holistic Financial Benchmark for Large Language Models [75.09474986283394]
FinBenは、24の財務タスクにまたがる36のデータセットを含む、最初の大規模なオープンソース評価ベンチマークである。
FinBenは、幅広いタスクとデータセット、ストックトレーディングの最初の評価、新しいエージェントと検索可能な生成(RAG)の評価、およびテキスト要約、質問応答、株式トレーディングのための3つの新しいオープンソース評価データセットを提供する。
論文 参考訳(メタデータ) (2024-02-20T02:16:16Z) - Revolutionizing Finance with LLMs: An Overview of Applications and
Insights [47.11391223936608]
ChatGPTのような大規模言語モデル(LLM)はかなり進歩しており、様々な分野に適用されている。
これらのモデルは、財務報告の自動生成、市場のトレンド予測、投資家の感情分析、パーソナライズされた財務アドバイスの提供に利用されています。
論文 参考訳(メタデータ) (2024-01-22T01:06:17Z) - Can GPT models be Financial Analysts? An Evaluation of ChatGPT and GPT-4
on mock CFA Exams [26.318005637849915]
本研究では,Large Language Models (LLM) の金銭的推論能力を評価することを目的とした。
チャータード・ファイナンシャル・アナリスト(CFA)プログラムの模擬試験問題を利用して、ChatGPTとGPT-4の総合的な評価を行う。
本稿では,モデルの性能と限界を詳細に分析し,CFA試験に合格する確率を推定する。
論文 参考訳(メタデータ) (2023-10-12T19:28:57Z) - PIXIU: A Large Language Model, Instruction Data and Evaluation Benchmark
for Finance [63.51545277822702]
PIXIUは、命令データ付き微調整LLaMAに基づく最初の金融大規模言語モデル(LLM)を含む包括的なフレームワークである。
我々はLLaMAを細調整してFinMAを提案する。
我々は、FinMAと既存のLLMを詳細に分析し、重要な財政課題に対処する際の長所と短所を明らかにする。
論文 参考訳(メタデータ) (2023-06-08T14:20:29Z) - Beyond Classification: Financial Reasoning in State-of-the-Art Language
Models [0.0]
大規模言語モデル(LLM)は複雑な多段階推論タスクにおいて顕著な能力を示した。
本研究は,金融分野におけるLLMの適用可能性に関する包括的調査である。
コヒーレントな財務推論を生成する能力は、まず6Bパラメータで現れ、より良い命令チューニングやより大きなデータセットで改善を続けている。
論文 参考訳(メタデータ) (2023-04-30T04:36:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。