論文の概要: FMDLlama: Financial Misinformation Detection based on Large Language Models
- arxiv url: http://arxiv.org/abs/2409.16452v2
- Date: Sun, 02 Feb 2025 20:20:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-04 16:05:31.764167
- Title: FMDLlama: Financial Misinformation Detection based on Large Language Models
- Title(参考訳): FMDLlama:大規模言語モデルに基づく金銭的誤情報検出
- Authors: Zhiwei Liu, Xin Zhang, Kailai Yang, Qianqian Xie, Jimin Huang, Sophia Ananiadou,
- Abstract要約: 大規模言語モデル (LLM) は様々な分野で優れた性能を示している。
本研究では,FMDLlamaを提案する。FMDLlamaは,FMDタスクのための,命令データを含む微調整Llama3.1に基づく最初のオープンソース命令追従LLMである。
当社のモデルとFMD-B上のさまざまなLLMを比較して,OpenAIの製品だけでなく,他のオープンソースLLMよりも優れています。
- 参考スコア(独自算出の注目度): 35.487700542961136
- License:
- Abstract: The emergence of social media has made the spread of misinformation easier. In the financial domain, the accuracy of information is crucial for various aspects of financial market, which has made financial misinformation detection (FMD) an urgent problem that needs to be addressed. Large language models (LLMs) have demonstrated outstanding performance in various fields. However, current studies mostly rely on traditional methods and have not explored the application of LLMs in the field of FMD. The main reason is the lack of FMD instruction tuning datasets and evaluation benchmarks. In this paper, we propose FMDLlama, the first open-sourced instruction-following LLMs for FMD task based on fine-tuning Llama3.1 with instruction data, the first multi-task FMD instruction dataset (FMDID) to support LLM instruction tuning, and a comprehensive FMD evaluation benchmark (FMD-B) with classification and explanation generation tasks to test the FMD ability of LLMs. We compare our models with a variety of LLMs on FMD-B, where our model outperforms other open-sourced LLMs as well as OpenAI's products. This project is available at https://github.com/lzw108/FMD.
- Abstract(参考訳): ソーシャルメディアの出現により、誤情報の拡散が容易になった。
金融分野では、金融市場の様々な面において情報の正確性が不可欠であり、金融誤報検出(FMD)が緊急対応すべき問題となっている。
大規模言語モデル (LLM) は様々な分野で優れた性能を示している。
しかし、近年の研究はほとんど伝統的な手法に依存しており、FMDの分野でのLLMの適用を探求していない。
主な理由は、FMD命令チューニングデータセットと評価ベンチマークの欠如である。
本稿では, FMDLlamaを提案する。FMDLlama, FMDLlama, FMDLlama, FMDLlama, FMDLlama, FMDLlama, FMDLlama, FMDLlama, FMDL3.1, FMDLlama, FMDLlama, FMDLlama, FMDLlama, FMDLlama, FMDLlama, FMDLlama, FMDLlama, FMDLlama, FMDLlama, FMDLlama, FMDLlama, FMDLlama, FMDL, FMDLlama, FMDLlama, FMDLlama, FMDL, FMDL, FMDLlama, FMDLlama, FMD のFMD のFMD 能力の分類と評価を行う。
我々は,FMD-B 上の様々な LLM と比較し,我々のモデルは OpenAI 製品だけでなく,他のオープンソース LLM よりも優れています。
このプロジェクトはhttps://github.com/lzw108/FMDで入手できる。
関連論文リスト
- SELF-GUIDE: Better Task-Specific Instruction Following via Self-Synthetic Finetuning [70.21358720599821]
大規模言語モデル(LLM)は、適切な自然言語プロンプトを提供する際に、多様なタスクを解決するという約束を持っている。
学生LLMからタスク固有の入出力ペアを合成する多段階メカニズムであるSELF-GUIDEを提案する。
ベンチマークの指標から,分類タスクに約15%,生成タスクに18%の絶対的な改善を報告した。
論文 参考訳(メタデータ) (2024-07-16T04:41:58Z) - The Synergy between Data and Multi-Modal Large Language Models: A Survey from Co-Development Perspective [53.48484062444108]
モデルとデータの開発は2つの別々のパスではなく、むしろ相互接続であることがわかった。
一方,MLLMはデータ開発に役立てることができるため,MLLMの性能向上に寄与する。
MLLMコミュニティにおけるデータモデル共同開発を促進するために,データモデル共同開発の観点からMLLMに関連する既存の研究を体系的にレビューする。
論文 参考訳(メタデータ) (2024-07-11T15:08:11Z) - FOFO: A Benchmark to Evaluate LLMs' Format-Following Capability [70.84333325049123]
FoFoは、大規模言語モデル(LLM)の複雑なドメイン固有のフォーマットに従う能力を評価するための先駆的なベンチマークである。
本稿では,大規模言語モデル(LLM)の複雑なドメイン固有フォーマットに従う能力を評価するための先駆的ベンチマークであるFoFoを提案する。
論文 参考訳(メタデータ) (2024-02-28T19:23:27Z) - Survey on Factuality in Large Language Models: Knowledge, Retrieval and
Domain-Specificity [61.54815512469125]
本調査は,大規模言語モデル(LLM)における事実性の重要課題に対処する。
LLMが様々な領域にまたがる応用を見出すにつれ、その出力の信頼性と正確性は重要となる。
論文 参考訳(メタデータ) (2023-10-11T14:18:03Z) - Data-Centric Financial Large Language Models [27.464319154543173]
大規模言語モデル(LLM)は自然言語のタスクを約束するが、金融のような複雑なドメインに直接適用した場合に苦労する。
我々は、LLMが金融業務をよりうまく扱えるようにするために、データ中心のアプローチを提案する。
論文 参考訳(メタデータ) (2023-10-07T04:53:31Z) - Large Language Models in Finance: A Survey [12.243277149505364]
大規模言語モデル(LLM)は、金融における人工知能応用の新しい可能性を開いた。
大規模言語モデル(LLM)の最近の進歩は、金融における人工知能応用の新しい可能性を開いた。
論文 参考訳(メタデータ) (2023-09-28T06:04:04Z) - FederatedScope-LLM: A Comprehensive Package for Fine-tuning Large
Language Models in Federated Learning [70.38817963253034]
本稿では, ファインチューニング LLM のこれらの課題について論じ, 本パッケージ FS-LLM を主な貢献として紹介する。
我々は、FLシナリオにおける将来の拡張のために、包括的フェデレーションパラメータ効率の良い微調整アルゴリズムの実装と汎用プログラミングインタフェースを提供する。
本研究では, FS-LLM の有効性を検証し, FL 設定におけるパラメータ効率の高いパラメータ調整アルゴリズムを用いて, 高度な LLM のベンチマークを行う。
論文 参考訳(メタデータ) (2023-09-01T09:40:36Z) - Temporal Data Meets LLM -- Explainable Financial Time Series Forecasting [7.485041391778341]
我々はNASDAQ-100株に重点を置いており、公開アクセス可能な歴史的株価データ、企業のメタデータ、歴史的経済・金融ニュースを活用している。
我々は,Open-LLaMA などの公開 LLM を微調整した上で,説明可能な予測を生成するための命令を理解することができることを示す。
論文 参考訳(メタデータ) (2023-06-19T15:42:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。