論文の概要: Bayesian Network Fusion of Large Language Models for Sentiment Analysis
- arxiv url: http://arxiv.org/abs/2510.26484v1
- Date: Thu, 30 Oct 2025 13:37:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.833831
- Title: Bayesian Network Fusion of Large Language Models for Sentiment Analysis
- Title(参考訳): 知覚分析のための大規模言語モデルのベイズネットワーク融合
- Authors: Rasoul Amirzadeh, Dhananjay Thiruvady, Fatemeh Shiri,
- Abstract要約: 大規模言語モデル(LLM)は進歩を続けており、特殊タスクに適したドメイン固有の変種が増えている。
本研究では,FinBERT,RoBERTa,BERTweetの3つのLLMからの予測を統合したベイジアンネットワークLEM融合フレームワークを提案する。
- 参考スコア(独自算出の注目度): 2.1080048342312185
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) continue to advance, with an increasing number of domain-specific variants tailored for specialised tasks. However, these models often lack transparency and explainability, can be costly to fine-tune, require substantial prompt engineering, yield inconsistent results across domains, and impose significant adverse environmental impact due to their high computational demands. To address these challenges, we propose the Bayesian network LLM fusion (BNLF) framework, which integrates predictions from three LLMs, including FinBERT, RoBERTa, and BERTweet, through a probabilistic mechanism for sentiment analysis. BNLF performs late fusion by modelling the sentiment predictions from multiple LLMs as probabilistic nodes within a Bayesian network. Evaluated across three human-annotated financial corpora with distinct linguistic and contextual characteristics, BNLF demonstrates consistent gains of about six percent in accuracy over the baseline LLMs, underscoring its robustness to dataset variability and the effectiveness of probabilistic fusion for interpretable sentiment classification.
- Abstract(参考訳): 大規模言語モデル(LLM)は進歩を続けており、特殊タスクに適したドメイン固有の変種が増えている。
しかしながら、これらのモデルは透明性と説明可能性に欠けることが多く、微調整にコストがかかるため、相当な迅速なエンジニアリングが必要であり、領域間で一貫性のない結果をもたらし、高い計算要求のために環境に重大な悪影響を及ぼす。
これらの課題に対処するため,FinBERT,RoBERTa,BERTweetの3つのLSMからの予測を,感情分析の確率論的メカニズムを通じて統合するBNLF(Bayesian Network LLM fusion)フレームワークを提案する。
BNLF はベイズネットワーク内の確率的ノードとして複数の LLM からの感情予測をモデル化することで遅延融合を行う。
BNLFは、言語的・文脈的な特徴の異なる3つの人称財務コーパスで評価され、ベースラインLLMの精度を約6%向上させ、データセットの変動性に対する頑健さと、解釈可能な感情分類における確率的融合の有効性を実証した。
関連論文リスト
- When can isotropy help adapt LLMs' next word prediction to numerical domains? [53.98633183204453]
文脈埋め込み空間におけるLLM埋め込みの等方性は表現の基盤構造を保存することが示されている。
実験により、数値データとモデルアーキテクチャの異なる特性が等方性に異なる影響があることが示されている。
論文 参考訳(メタデータ) (2025-05-22T05:10:34Z) - Extracting Probabilistic Knowledge from Large Language Models for Bayesian Network Parameterization [22.286144400569007]
ベイジアンネットワーク(BN)構築におけるLLM(Large Language Models)の可能性について,ドメインエキスパートの事前の近似による検討を行った。
医療からファイナンスまで80の公開ベイズネットワークの実験は、事象の条件付き確率についてLLMに問い合わせることが有意義な結果をもたらすことを実証している。
論文 参考訳(メタデータ) (2025-05-21T18:15:05Z) - Quantifying Prediction Consistency Under Fine-Tuning Multiplicity in Tabular LLMs [10.494477811252034]
微調整多重度は分類タスクにおけるタブラル LLM に現れる。
我々の研究は、タブラルLLMにおける微調整多重性というこのユニークな挑戦を定式化する。
本稿では,コストのかかるモデル再訓練を伴わずに,個々の予測の一貫性を定量化する手法を提案する。
論文 参考訳(メタデータ) (2024-07-04T22:22:09Z) - Decomposing Uncertainty for Large Language Models through Input Clarification Ensembling [69.83976050879318]
大規模言語モデル(LLM)では、不確実性の原因を特定することが、信頼性、信頼性、解釈可能性を改善するための重要なステップである。
本稿では,LLMのための不確実性分解フレームワークについて述べる。
提案手法は,入力に対する一連の明確化を生成し,それらをLLMに入力し,対応する予測をアンサンブルする。
論文 参考訳(メタデータ) (2023-11-15T05:58:35Z) - Enhancing Financial Sentiment Analysis via Retrieval Augmented Large
Language Models [11.154814189699735]
大規模な言語モデル (LLM) は様々なNLPタスクにおいて優れた性能を示した。
本稿では,金融感情分析のためのLLMフレームワークを提案する。
提案手法の精度は15%から48%向上し,F1得点を得た。
論文 参考訳(メタデータ) (2023-10-06T05:40:23Z) - Can ChatGPT Forecast Stock Price Movements? Return Predictability and Large Language Models [48.87381259980254]
我々は、ChatGPTのような大規模言語モデル(LLM)が、直接の金融トレーニングなしでニュースの見出しから株式市場の反応を予測する能力について文書化している。
GPT-4は、認識後カットオフの見出しを使って、最初の市場の反応を捉え、取引不能な初期反応に対して、ポートフォリオの1日当たりのヒット率を約90%達成している。
論文 参考訳(メタデータ) (2023-04-15T19:22:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。