論文の概要: DyFuLM: An Advanced Multimodal Framework for Sentiment Analysis
- arxiv url: http://arxiv.org/abs/2512.01410v1
- Date: Mon, 01 Dec 2025 08:30:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.762738
- Title: DyFuLM: An Advanced Multimodal Framework for Sentiment Analysis
- Title(参考訳): DyFuLM: 感性分析のための高度なマルチモーダルフレームワーク
- Authors: Ruohan Zhou, Jiachen Yuan, Churui Yang, Wenzheng Huang, Guoyan Zhang, Shiyao Wei, Jiazhen Hu, Ning Xin, Md Maruf Hasan,
- Abstract要約: 階層的意味表現と微粒な感情ニュアンスの両方を捉える動的融合学習モデル(DyFuLM)を提案する。
感情データセットの実験では、DyFuLMは82.64%の粗い粒度と68.48%の微細な粒度を達成している。
ゲート融合モジュールのみを保持すると、0.75%と0.55%が減少し、動的損失機構を除去すると、粗くきめ細かな感情分類では0.78%と0.26%が低下する。
- 参考スコア(独自算出の注目度): 0.7429743416602484
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding sentiment in complex textual expressions remains a fundamental challenge in affective computing. To address this, we propose a Dynamic Fusion Learning Model (DyFuLM), a multimodal framework designed to capture both hierarchical semantic representations and fine-grained emotional nuances. DyFuLM introduces two key moodules: a Hierarchical Dynamic Fusion module that adaptively integrates multi-level features, and a Gated Feature Aggregation module that regulates cross-layer information ffow to achieve balanced representation learning. Comprehensive experiments on multi-task sentiment datasets demonstrate that DyFuLM achieves 82.64% coarse-grained and 68.48% fine-grained accuracy, yielding the lowest regression errors (MAE = 0.0674, MSE = 0.0082) and the highest R^2 coefficient of determination (R^2= 0.6903). Furthermore, the ablation study validates the effectiveness of each module in DyFuLM. When all modules are removed, the accuracy drops by 0.91% for coarse-grained and 0.68% for fine-grained tasks. Keeping only the gated fusion module causes decreases of 0.75% and 0.55%, while removing the dynamic loss mechanism results in drops of 0.78% and 0.26% for coarse-grained and fine-grained sentiment classification, respectively. These results demonstrate that each module contributes significantly to feature interaction and task balance. Overall, the experimental findings further validate that DyFuLM enhances sentiment representation and overall performance through effective hierarchical feature fusion.
- Abstract(参考訳): 複雑なテキスト表現における感情を理解することは、感情コンピューティングにおける根本的な課題である。
そこで本稿では,階層的意味表現と微粒な感情ニュアンスの両方を捉えるためのマルチモーダルフレームワークであるDynamic Fusion Learning Model (DyFuLM)を提案する。
DyFuLMは、マルチレベル機能を適応的に統合する階層型動的フュージョンモジュールと、バランスの取れた表現学習を達成するために層間情報を規制するGated Feature Aggregationモジュールの2つの主要なムードルを導入している。
マルチタスクの感情データセットに関する総合的な実験により、DyFuLMは82.64%の粗い粒度と68.48%の微細な精度を達成し、最も低い回帰誤差(MAE = 0.0674, MSE = 0.0082)と最も高いR^2係数(R^2 = 0.6903)を得ることが示された。
さらに, アブレーション実験はDyFuLMにおける各モジュールの有効性を検証した。
すべてのモジュールを除去すると、精度は粗粒では0.91%、細粒度では0.68%低下する。
ゲート融合モジュールのみを保持すると、0.75%と0.55%が減少し、動的損失機構を除去すると、粗粒度と細粒度の感情分類では0.78%と0.26%が減少する。
これらの結果は、各モジュールが機能の相互作用とタスクバランスに大きく貢献していることを示している。
全体として,DyFuLMは効果的な階層的特徴融合によって感情表現と全体的なパフォーマンスを向上させることが実証された。
関連論文リスト
- DoGCLR: Dominance-Game Contrastive Learning Network for Skeleton-Based Action Recognition [8.909010524191368]
既存の骨格に基づく行動認識のための自己教師付きコントラスト学習法は、しばしば全ての骨格領域を均一に処理する。
本稿では,骨格型行動認識(DoGCLR)のためのドミナンスゲームコントラスト学習ネットワークを提案する。
DoGCLRは、正と負のサンプルの構成を動的ドミナンスゲームとしてモデル化し、両方のサンプルタイプが相互作用し、セマンティックな保存と識別力のバランスをとる平衡に達する。
論文 参考訳(メタデータ) (2025-11-18T06:32:21Z) - Eigen-1: Adaptive Multi-Agent Refinement with Monitor-Based RAG for Scientific Reasoning [53.45095336430027]
暗黙的な検索と構造化された協調を組み合わせた統合フレームワークを開発する。
Humanity's Last Exam (HLE) Bio/Chem Goldでは,48.3%の精度を実現している。
SuperGPQAとTRQAの結果はドメイン間の堅牢性を確認した。
論文 参考訳(メタデータ) (2025-09-25T14:05:55Z) - Efficient Federated Learning with Heterogeneous Data and Adaptive Dropout [62.73150122809138]
Federated Learning(FL)は、複数のエッジデバイスを使用したグローバルモデルの協調トレーニングを可能にする、有望な分散機械学習アプローチである。
動的不均一モデルアグリゲーション(FedDH)と適応ドロップアウト(FedAD)の2つの新しい手法を備えたFedDHAD FLフレームワークを提案する。
これら2つの手法を組み合わせることで、FedDHADは精度(最大6.7%)、効率(最大2.02倍高速)、コスト(最大15.0%小型)で最先端のソリューションを大幅に上回っている。
論文 参考訳(メタデータ) (2025-07-14T16:19:00Z) - Prismatic Synthesis: Gradient-based Data Diversification Boosts Generalization in LLM Reasoning [77.120955854093]
我々は,データ多様性が言語モデルにおける一般化の強力な予測因子であることを示す。
モデル誘起勾配のエントロピーを通して多様性を定量化する計量であるG-Vendiを導入する。
多様な合成データを生成するためのフレームワークであるPrismatic Synthesisを提案する。
論文 参考訳(メタデータ) (2025-05-26T16:05:10Z) - RMMSS: Towards Advanced Robust Multi-Modal Semantic Segmentation with Hybrid Prototype Distillation and Feature Selection [9.418241223504252]
RMMSSは、モダリティの欠如した条件下でモデルロバスト性を高めるために設計された2段階のフレームワークである。
これは2つの重要なコンポーネントで構成されている。ハイブリッドプロトタイプ蒸留モジュール (HPDM) と特徴選択モジュール (FSM) である。
3つのデータセットに対する実験により,本手法は,それぞれ2.80%,3.89%,0.89%のモダリティ性能を向上することを示した。
論文 参考訳(メタデータ) (2025-05-19T08:46:03Z) - Retrieval-augmented in-context learning for multimodal large language models in disease classification [18.48849976529677]
RAICLは、検索強化世代(RAG)とコンテキスト内学習(ICL)を統合し、同様の病気パターンを持つデモを適応的に選択する。
このフレームワークを実世界の2つのマルチモーダルデータセット上で評価した。
論文 参考訳(メタデータ) (2025-05-04T12:43:56Z) - FA-YOLO: Research On Efficient Feature Selection YOLO Improved Algorithm Based On FMDS and AGMF Modules [0.6047429555885261]
本稿では,FMDSモジュールと適応Gated Multi-branch Focus Fusion Module (AGMFモジュール)を提案する。
FMDSモジュールは、より効率的な動的特徴選択と融合法を、より微細なマルチスケール特徴写像に適用する。
AGMFモジュールは、複数の並列ブランチを使用して、ゲートユニットブランチ、FMDSモジュールブランチ、トリプルトブランチによってキャプチャされた様々な機能の補完的な融合を実行する。
論文 参考訳(メタデータ) (2024-08-29T07:22:16Z) - Hybrid Multimodal Feature Extraction, Mining and Fusion for Sentiment
Analysis [31.097398034974436]
我々は,MuSe-Humor, MuSe-Reaction, MuSe-Stress Sub-challengesを含む2022年度のMultimodal Sentiment Analysis Challengeのソリューションを提案する。
MuSe 2022はユーモアの検出、感情反応、さまざまなモダリティとデータセットを活用するマルチモーダルな感情ストレスに焦点を当てている。
論文 参考訳(メタデータ) (2022-08-05T09:07:58Z) - Multi-scale Interactive Network for Salient Object Detection [91.43066633305662]
本稿では,隣接レベルからの機能を統合するためのアグリゲート・インタラクション・モジュールを提案する。
より効率的なマルチスケール機能を得るために、各デコーダユニットに自己相互作用モジュールを埋め込む。
5つのベンチマークデータセットによる実験結果から,提案手法は後処理を一切行わず,23の最先端手法に対して良好に動作することが示された。
論文 参考訳(メタデータ) (2020-07-17T15:41:37Z) - Hierarchical Dynamic Filtering Network for RGB-D Salient Object
Detection [91.43066633305662]
RGB-D Salient Object Detection (SOD) の主な目的は、相互融合情報をよりよく統合し活用する方法である。
本稿では,これらの問題を新たな視点から考察する。
我々は、より柔軟で効率的なマルチスケールのクロスモーダルな特徴処理を実装している。
論文 参考訳(メタデータ) (2020-07-13T07:59:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。