論文の概要: Multilevel Analysis of Cryptocurrency News using RAG Approach with Fine-Tuned Mistral Large Language Model
- arxiv url: http://arxiv.org/abs/2509.03527v1
- Date: Mon, 25 Aug 2025 08:17:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-07 09:10:15.293113
- Title: Multilevel Analysis of Cryptocurrency News using RAG Approach with Fine-Tuned Mistral Large Language Model
- Title(参考訳): 微調整ミストラム大言語モデルを用いたRAG手法による暗号ニュースのマルチレベル解析
- Authors: Bohdan M. Pavlyshenko,
- Abstract要約: 検索拡張生成(RAG)を用いた微調整Mistral 7B大言語モデルを用いた暗号ニュースのマルチレベルマルチタスク解析について検討する。
モデルはPEFT/LoRAアプローチを用いて4ビット化で微調整される。
知識グラフとしての暗号ニュースの表現は、大きな言語モデル幻覚の問題を本質的に排除することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the paper, we consider multilevel multitask analysis of cryptocurrency news using a fine-tuned Mistral 7B large language model with retrieval-augmented generation (RAG). On the first level of analytics, the fine-tuned model generates graph and text summaries with sentiment scores as well as JSON representations of summaries. Higher levels perform hierarchical stacking that consolidates sets of graph-based and text-based summaries as well as summaries of summaries into comprehensive reports. The combination of graph and text summaries provides complementary views of cryptocurrency news. The model is fine-tuned with 4-bit quantization using the PEFT/LoRA approach. The representation of cryptocurrency news as knowledge graph can essentially eliminate problems with large language model hallucinations. The obtained results demonstrate that the use of fine-tuned Mistral 7B LLM models for multilevel cryptocurrency news analysis can conduct informative qualitative and quantitative analytics, providing important insights.
- Abstract(参考訳): 本稿では,検索拡張世代(RAG)を用いた微調整Mistral 7B大言語モデルを用いて,暗号ニュースのマルチレベルマルチタスク分析を行う。
最初のレベルでは、微調整されたモデルは、感情スコアと要約のJSON表現とともに、グラフとテキストの要約を生成する。
高レベルは階層的な積み重ねを行い、グラフベースの要約とテキストベースの要約、および要約の要約を総合的なレポートに統合する。
グラフとテキストの要約の組み合わせは、暗号通貨ニュースの補完的なビューを提供する。
モデルはPEFT/LoRAアプローチを用いて4ビット量子化で微調整される。
知識グラフとしての暗号ニュースの表現は、大きな言語モデル幻覚の問題を本質的に排除することができる。
その結果,マルチレベル暗号ニュース分析に微調整Mistral 7B LLMモデルを用いることで,情報質的,定量的な分析が可能であり,重要な知見が得られることがわかった。
関連論文リスト
- Large Language Models for Cryptocurrency Transaction Analysis: A Bitcoin Case Study [31.329503543552864]
大規模言語モデル(LLM)はこれらのギャップに対処する可能性を秘めているが、この分野におけるそれらの能力はほとんど解明されていない。
本稿では,LLMを実世界の暗号トランザクショングラフに適用することにより,この仮説を検証する。
これには、新しい人間可読グラフ表現フォーマット、LLM4TG、接続強化トランザクショングラフサンプリングアルゴリズム、CETraSが含まれる。
論文 参考訳(メタデータ) (2025-01-30T05:48:13Z) - On Pre-training of Multimodal Language Models Customized for Chart Understanding [83.99377088129282]
本稿では,MLLMのチャート理解を改善するために必要な学習過程について考察する。
詳細なチャート理解に適したMLLMであるCHOPINLLMを紹介する。
論文 参考訳(メタデータ) (2024-07-19T17:58:36Z) - Parameter-Efficient Tuning Large Language Models for Graph Representation Learning [62.26278815157628]
Graph-awareを導入します。
GPEFT - グラフ表現学習のための新しい手法。
グラフニューラルネットワーク(GNN)を用いて、隣接するノードからグラフプロンプトに構造情報をエンコードする。
我々は8つの異なるテキストリッチグラフで実施した総合的な実験を通じて,リンク予測評価において hit@1 と Mean Reciprocal Rank (MRR) の平均 2% の改善を観察し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2024-04-28T18:36:59Z) - Which Modality should I use -- Text, Motif, or Image? : Understanding Graphs with Large Language Models [14.251972223585765]
本稿では,テキスト,画像,モチーフなどの多様性を持つグラフを符号化する新たな手法を提案する。
また、グラフ構造解析において、LLM(Large Language Models)を評価するための新しいベンチマークであるGraphTMIも提示されている。
論文 参考訳(メタデータ) (2023-11-16T12:45:41Z) - Scientific Paper Extractive Summarization Enhanced by Citation Graphs [50.19266650000948]
我々は、引用グラフを活用して、異なる設定下での科学的論文の抽出要約を改善することに重点を置いている。
予備的な結果は、単純な教師なしフレームワークであっても、引用グラフが有用であることを示している。
そこで我々は,大規模ラベル付きデータが利用可能である場合のタスクにおいて,より正確な結果を得るために,グラフベースのスーパービジョン・サムライゼーション・モデル(GSS)を提案する。
論文 参考訳(メタデータ) (2022-12-08T11:53:12Z) - GRETEL: Graph Contrastive Topic Enhanced Language Model for Long
Document Extractive Summarization [22.053942327552583]
グローバルな意味情報を取得するためのグラフコントラストトピック拡張言語モデル(GRETEL)を提案する。
GRETELは階層型トランスフォーマーエンコーダとグラフコントラスト学習を統合し,グローバル文書コンテキストとゴールド要約から意味情報を融合する。
一般領域およびバイオメディカルデータセットの実験結果から,提案手法がSOTA法より優れていることが示された。
論文 参考訳(メタデータ) (2022-08-21T23:09:29Z) - Analysis of GraphSum's Attention Weights to Improve the Explainability
of Multi-Document Summarization [2.626095252463179]
現代のマルチドキュメント要約(MDS)手法はトランスフォーマーアーキテクチャに基づいている。
アートサマリーの状態を生成できるが、説明責任は欠如している。
本研究の目的は,グラフベースMDSの注意重み分析による説明可能性の向上である。
論文 参考訳(メタデータ) (2021-05-19T08:18:59Z) - Leveraging Graph to Improve Abstractive Multi-Document Summarization [50.62418656177642]
我々は、文書のよく知られたグラフ表現を活用することができる、抽象的多文書要約(MDS)モデルを開発する。
本モデルでは,長い文書の要約に欠かせない文書間関係を捉えるために,文書の符号化にグラフを利用する。
また,このモデルでは,要約生成プロセスの導出にグラフを利用することが可能であり,一貫性と簡潔な要約を生成するのに有用である。
論文 参考訳(メタデータ) (2020-05-20T13:39:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。