論文の概要: CMV-Fuse: Cross Modal-View Fusion of AMR, Syntax, and Knowledge Representations for Aspect Based Sentiment Analysis
- arxiv url: http://arxiv.org/abs/2512.06679v1
- Date: Sun, 07 Dec 2025 06:35:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.465768
- Title: CMV-Fuse: Cross Modal-View Fusion of AMR, Syntax, and Knowledge Representations for Aspect Based Sentiment Analysis
- Title(参考訳): CMV-Fuse:アスペクトに基づく知覚分析のためのAMR, 構文, 知識表現のクロスモーダルビュー融合
- Authors: Smitha Muthya Sudheendra, Mani Deep Cherukuri, Jaideep Srivastava,
- Abstract要約: CMV-Fuseは、人間の言語処理をエミュレートするクロスモーダルビュー融合フレームワークである。
我々のアプローチは4つの言語的視点を体系的に編成する。
CMV-Fuseは、きめ細かい構造パターンと広いコンテキスト理解の両方をキャプチャする。
- 参考スコア(独自算出の注目度): 2.2972913486393707
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Natural language understanding inherently depends on integrating multiple complementary perspectives spanning from surface syntax to deep semantics and world knowledge. However, current Aspect-Based Sentiment Analysis (ABSA) systems typically exploit isolated linguistic views, thereby overlooking the intricate interplay between structural representations that humans naturally leverage. We propose CMV-Fuse, a Cross-Modal View fusion framework that emulates human language processing by systematically combining multiple linguistic perspectives. Our approach systematically orchestrates four linguistic perspectives: Abstract Meaning Representations, constituency parsing, dependency syntax, and semantic attention, enhanced with external knowledge integration. Through hierarchical gated attention fusion across local syntactic, intermediate semantic, and global knowledge levels, CMV-Fuse captures both fine-grained structural patterns and broad contextual understanding. A novel structure aware multi-view contrastive learning mechanism ensures consistency across complementary representations while maintaining computational efficiency. Extensive experiments demonstrate substantial improvements over strong baselines on standard benchmarks, with analysis revealing how each linguistic view contributes to more robust sentiment analysis.
- Abstract(参考訳): 自然言語の理解は、表面の構文から深い意味論や世界知識まで、複数の相補的な視点を統合することに本質的に依存している。
しかしながら、現在のAspect-Based Sentiment Analysis (ABSA) システムは、通常、孤立した言語的視点を利用して、人間が自然に利用する構造的表現間の複雑な相互作用を見越す。
複数の言語的視点を体系的に組み合わせることで、人間の言語処理をエミュレートするクロスモーダルビュー融合フレームワークであるCMV-Fuseを提案する。
提案手法は, 抽象的意味表現, 選挙区解析, 依存性構文, 意味的注意の4つの言語的視点を体系的に編成し, 外部知識の統合で強化した。
CMV-Fuseは、局所構文、中間的意味論、グローバル知識レベルをまたいだ階層的な注意融合を通じて、きめ細かい構造パターンと広い文脈理解の両方を捉えている。
新しい構造認識型マルチビューコントラスト学習機構は,計算効率を保ちながら相補表現間の整合性を確保する。
大規模な実験では、標準ベンチマークの強いベースラインよりも大幅に改善され、各言語的視点がより堅牢な感情分析にどのように貢献するかが明らかになった。
関連論文リスト
- From Perception to Cognition: A Survey of Vision-Language Interactive Reasoning in Multimodal Large Language Models [66.36007274540113]
MLLM(Multimodal Large Language Models)は、物理的世界に対する深い人間的な理解と相互作用を達成するための試みである。
情報取得(知覚)や推論(認知)を行う際、しばしば浅く不整合な統合を示す。
この調査では、新しい統合分析フレームワーク「知覚から認知へ」を紹介した。
論文 参考訳(メタデータ) (2025-09-29T18:25:40Z) - Structures Meet Semantics: Multimodal Fusion via Graph Contrastive Learning [8.187594234413568]
SSU(Structure-Semantic Unifier)と呼ばれる新しいフレームワークを提案する。
SSUは、モダリティ固有の構造情報と、拡張マルチモーダル表現のためのクロスモーダルセマンティックグラウンドを統合している。
SSUは一貫して最先端の性能を実現し、計算オーバーヘッドを大幅に削減する。
論文 参考訳(メタデータ) (2025-08-24T13:44:54Z) - Linguistics-aware Masked Image Modeling for Self-supervised Scene Text Recognition [50.86415025650168]
マスク付き画像モデリング(MIM)は、局所的な構造を利用して視覚パターンを再構築する傾向があり、言語知識は限られている。
本稿では,言語情報とMIMの復号過程を別ブランチで関連づける,言語学対応の仮面画像モデリング(LMIM)手法を提案する。
論文 参考訳(メタデータ) (2025-03-24T14:53:35Z) - Transition-based Abstract Meaning Representation Parsing with Contextual
Embeddings [0.0]
本研究では,意味解析のタスクにおいて,言語モデルと記号意味論の定式化という,言語の意味への最も成功したルートを2つ組み合わせる手法について検討する。
本稿では,事前学習した文脈認識単語の埋め込み(BERTやRoBERTaなど)を解析問題に組み込むことの有用性について検討する。
論文 参考訳(メタデータ) (2022-06-13T15:05:24Z) - A Knowledge-Enhanced Adversarial Model for Cross-lingual Structured
Sentiment Analysis [31.05169054736711]
言語間構造的感情分析タスクは、ソース言語からターゲット言語へ知識を伝達することを目的としている。
本稿では,暗黙的分散と明示的構造的知識を両立させた知識強化逆数モデル(textttKEAM)を提案する。
我々は5つのデータセットの実験を行い、textttKEAMと教師なしおよび教師なしの両方の手法を比較した。
論文 参考訳(メタデータ) (2022-05-31T03:07:51Z) - Knowledge Graph Augmented Network Towards Multiview Representation
Learning for Aspect-based Sentiment Analysis [96.53859361560505]
本稿では,知識グラフ拡張ネットワーク(KGAN)を提案する。
KGANは感情の特徴表現を、文脈、構文、知識に基づく複数の視点から捉えている。
3つの人気のあるABSAベンチマークの実験は、我々のKGANの有効性と堅牢性を示している。
論文 参考訳(メタデータ) (2022-01-13T08:25:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。