論文の概要: CryptoGPT: a 7B model rivaling GPT-4 in the task of analyzing and classifying real-time financial news
- arxiv url: http://arxiv.org/abs/2406.14039v1
- Date: Thu, 20 Jun 2024 06:59:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-21 15:10:05.725900
- Title: CryptoGPT: a 7B model rivaling GPT-4 in the task of analyzing and classifying real-time financial news
- Title(参考訳): リアルタイム金融ニュースの分析・分類におけるGPT-4と競合する7BモデルCryptoGPT
- Authors: Ying Zhang, Matthieu Petit Guillaume, Aurélien Krauth, Manel Labidi,
- Abstract要約: 本稿では,CryptoGPTによる産業環境における限られた資源で,適切な品質のLLMを精製する手法を提案する。
このモデルでは、財務情報の分類だけでなく、包括的な分析も可能である。
- 参考スコア(独自算出の注目度): 3.8447306272420816
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: CryptoGPT: a 7B model competing with GPT-4 in a specific task -- The Impact of Automatic Annotation and Strategic Fine-Tuning via QLoRAIn this article, we present a method aimed at refining a dedicated LLM of reasonable quality with limited resources in an industrial setting via CryptoGPT. It is an LLM designed for financial news analysis for the cryptocurrency market in real-time. This project was launched in an industrial context. This model allows not only for the classification of financial information but also for providing comprehensive analysis. We refined different LLMs of the same size such as Mistral-7B and LLama-7B using semi-automatic annotation and compared them with various LLMs such as GPT-3.5 and GPT-4. Our goal is to find a balance among several needs: 1. Protecting data (by avoiding their transfer to external servers), 2. Limiting annotation cost and time, 3. Controlling the model's size (to manage deployment costs), and 4. Maintaining better analysis quality.
- Abstract(参考訳): CryptoGPT: 特定のタスクにおいて GPT-4 と競合する 7B モデル -- The Impact of Automatic Annotation and Strategic Fine-Tuning via QLoRA この記事では,CryptoGPT による産業環境における限られた資源で,適切な品質の LLM を精錬する手法を提案する。
LLMは、リアルタイムに暗号通貨市場向けの金融ニュース分析のために設計されたLLMである。
このプロジェクトは産業的に開始された。
このモデルでは、財務情報の分類だけでなく、包括的な分析も可能である。
半自動アノテーションを用いて,Mistral-7B や LLama-7B のような同じ大きさのLLMを改良し,GPT-3.5 や GPT-4 といった様々な LLM と比較した。
私たちのゴールは、いくつかのニーズのバランスを見つけることです。
1.データの保護(外部サーバへの転送を避けて)
2.アノテーションのコストと時間を制限すること
3.モデルのサイズ(デプロイメントコストを管理するため)、および
4. より良い分析品質を維持すること。
関連論文リスト
- Benchmarking LLMs for Optimization Modeling and Enhancing Reasoning via Reverse Socratic Synthesis [60.23133327001978]
大規模言語モデル(LLM)は、数学的推論においてその問題解決能力を示した。
本稿では,人間可読入力と出力を用いたエンドツーエンド最適化問題のベンチマークであるE-OPTを提案する。
論文 参考訳(メタデータ) (2024-07-13T13:27:57Z) - RankRAG: Unifying Context Ranking with Retrieval-Augmented Generation in LLMs [60.38044044203333]
大規模言語モデル(LLM)は、通常、検索拡張生成(RAG)において、レトリバーからトップkコンテキストを利用する。
本稿では,RAGにおける文脈ランク付けと回答生成の両目的のために,単一のLLMをチューニング可能な新しい命令微調整フレームワークであるRanRAGを提案する。
例えば、GPT-4-0613, GPT-4-turbo-2024-0409, ChatQA-1.5, RAGベンチマークの最先端性能を備えたオープンソースモデルなどである。
論文 参考訳(メタデータ) (2024-07-02T17:59:17Z) - Fine-Tuning Gemma-7B for Enhanced Sentiment Analysis of Financial News Headlines [4.198715347024138]
我々はNLP(Natural Language Processing)とLLM(Large Language Models)を使って、小売投資家の視点から感情を分析する。
感性分類における効果を評価するために, distilbert-base-uncased, Llama, gemma-7b などいくつかのモデルを微調整した。
実験の結果,精巧なgemma-7bモデルは他のモデルよりも優れており,高い精度,リコール,F1スコアが得られた。
論文 参考訳(メタデータ) (2024-06-19T15:20:19Z) - Advancing Anomaly Detection: Non-Semantic Financial Data Encoding with LLMs [49.57641083688934]
本稿では,Large Language Models (LLM) 埋め込みを用いた財務データにおける異常検出の新しい手法を提案する。
実験により,LLMが異常検出に有用な情報をもたらし,モデルがベースラインを上回っていることが確認された。
論文 参考訳(メタデータ) (2024-06-05T20:19:09Z) - Harmonic LLMs are Trustworthy [3.8119386967826294]
我々は,ブラックボックスLLMの強靭性を実時間でテストする直感的な手法を,その局所的な調和性偏差を$gamma$と表現して導入する。
WebQA、ProgrammingQA、TrthfulQAの3つのドメインで、数千のクエリにまたがる10の一般的なLCMで$gamma$を測定します。
論文 参考訳(メタデータ) (2024-04-30T17:00:32Z) - FinLlama: Financial Sentiment Classification for Algorithmic Trading Applications [2.2661367844871854]
大規模言語モデル(LLM)はこの文脈で使用することができるが、財務に特化せず、重要な計算資源を必要とする傾向がある。
我々はLlama 2 7Bの基礎モデルに基づく新しいアプローチを導入し,その生成特性と包括的言語操作の利点を享受する。
これは、Llama2 7Bモデルを教師付き財務感情分析データの一部に微調整することで達成される。
論文 参考訳(メタデータ) (2024-03-18T22:11:00Z) - TAT-LLM: A Specialized Language Model for Discrete Reasoning over
Tabular and Textual Data [77.66158066013924]
我々は,言語モデル(LLM)の驚くべきパワーを活用して課題を解決することを検討する。
LLaMA2を微調整し,既存のエキスパートアノテートデータセットから自動生成したトレーニングデータを用いてTAT-LLM言語モデルを開発する。
論文 参考訳(メタデータ) (2024-01-24T04:28:50Z) - Intention Analysis Makes LLMs A Good Jailbreak Defender [79.4014719271075]
本研究では,シンプルかつ高効率な防衛戦略,すなわち意図分析(mathbbIA$)を提案する。
この背景にある原則は、LSM固有の自己修正をトリガーし、2段階のプロセスを通じて能力を改善することである。
$mathbbIA$は推論のみのメソッドであり、その有用性を損なうことなくLLMの安全性を高めることができる。
論文 参考訳(メタデータ) (2024-01-12T13:15:05Z) - SCALE: Synergized Collaboration of Asymmetric Language Translation
Engines [105.8983433641208]
本稿では,コンパクトな特殊翻訳モデル (STM) と汎用大言語モデル (LLM) を1つの統合翻訳エンジンとして結合する協調フレームワークを提案する。
STMからの翻訳を3重項インコンテキストのデモに導入することで、SCALEはLLMの洗練とピボット能力を解放する。
実験の結果,SCALEは低リソース環境において,少数ショットLLM (GPT-4) と特殊モデル (NLLB) の両方を著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2023-09-29T08:46:38Z) - GPT-Fathom: Benchmarking Large Language Models to Decipher the Evolutionary Path towards GPT-4 and Beyond [29.778018058541676]
GPT-Fathomは、OpenAI Evals上に構築された大規模言語モデル(LLM)のための、オープンソースで再現可能な評価スイートである。
私たちは,7つの機能カテゴリにまたがる20以上のベンチマークで,10以上のLLMとOpenAIのレガシモデルを評価しました。
論文 参考訳(メタデータ) (2023-09-28T16:43:35Z) - What do LLMs Know about Financial Markets? A Case Study on Reddit Market
Sentiment Analysis [15.195505464654493]
ソーシャルメディアコンテンツに対する市場の感情分析には、金融市場とソーシャルメディアのジャーゴンの両方の知識が必要である。
我々のパイプラインは、大きな言語モデル(LLM)を用いたReddit投稿の弱い財務感情ラベルを生成する。
少数のプロンプトだけで、最終モデルは既存の教師付きモデルと同等に実行される。
論文 参考訳(メタデータ) (2022-12-21T19:11:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。