論文の概要: AF-MAT: Aspect-aware Flip-and-Fuse xLSTM for Aspect-based Sentiment Analysis
- arxiv url: http://arxiv.org/abs/2507.01213v2
- Date: Thu, 14 Aug 2025 15:34:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 13:42:23.348133
- Title: AF-MAT: Aspect-aware Flip-and-Fuse xLSTM for Aspect-based Sentiment Analysis
- Title(参考訳): AF-MAT:アスペクトに基づく知覚分析のためのアスペクト認識フリップ・アンド・フューズxLSTM
- Authors: Adamu Lawan, Juhua Pu, Haruna Yunusa, Muhammad Lawan, Mahmoud Basi, Muhammad Adam,
- Abstract要約: 我々は,xLSTMの強みを利用するフレームワークであるAF-MAT(Aspect-aware Flip-and-Fuse xLSTM)を紹介する。
AF-MATは、専用アスペクトゲートを導入するAspect-awareMatrix LSTMメカニズムを備えており、メモリ更新中にターゲットアスペクトに意味のあるトークンを選択的に強調することができる。
AF-MATが最先端のベースラインを上回る3つのベンチマークデータセットの実験により、ABSAタスクの精度が向上した。
- 参考スコア(独自算出の注目度): 0.6498237940960344
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Aspect-based Sentiment Analysis (ABSA) is a crucial NLP task that extracts fine-grained opinions and sentiments from text, such as product reviews and customer feedback. Existing methods often trade off efficiency for performance: traditional LSTM or RNN models struggle to capture long-range dependencies, transformer-based methods are computationally costly, and Mamba-based approaches rely on CUDA and weaken local dependency modeling. The recently proposed Extended Long Short-Term Memory (xLSTM) model offers a promising alternative by effectively capturing long-range dependencies through exponential gating and enhanced memory variants, sLSTM for modeling local dependencies, and mLSTM for scalable, parallelizable memory. However, xLSTM's application in ABSA remains unexplored. To address this, we introduce Aspect-aware Flip-and-Fuse xLSTM (AF-MAT), a framework that leverages xLSTM's strengths. AF-MAT features an Aspect-aware matrix LSTM (AA-mLSTM) mechanism that introduces a dedicated aspect gate, enabling the model to selectively emphasize tokens semantically relevant to the target aspect during memory updates. To model multi-scale context, we incorporate a FlipMix block that sequentially applies a partially flipped Conv1D (pf-Conv1D) to capture short-range dependencies in reverse order, followed by a fully flipped mLSTM (ff-mLSTM) to model long-range dependencies via full sequence reversal. Additionally, we propose MC2F, a lightweight Multihead Cross-Feature Fusion based on mLSTM gating, which dynamically fuses AA-mLSTM outputs (queries and keys) with FlipMix outputs (values) for adaptive representation integration. Experiments on three benchmark datasets demonstrate that AF-MAT outperforms state-of-the-art baselines, achieving higher accuracy in ABSA tasks.
- Abstract(参考訳): Aspect-based Sentiment Analysis (ABSA)は、製品レビューや顧客からのフィードバックなど、テキストからきめ細かい意見や感情を抽出する重要なNLPタスクである。
従来のLSTMやRNNモデルは長距離依存を捉えるのに苦労し、トランスフォーマーベースの手法は計算コストがかかり、MambaベースのアプローチはCUDAに依存し、局所依存モデリングを弱める。
最近提案された拡張長短期メモリ(extensioned Long Short-Term Memory, xLSTM)モデルは、指数的ゲーティングと拡張メモリバリアントによる長距離依存関係を効果的にキャプチャし、ローカル依存関係をモデリングするためのsLSTM、スケーラブルで並列化可能なメモリのためのmLSTMを提供する。
しかし、ABSAにおけるxLSTMの応用は未定である。
そこで我々は,xLSTMの強みを利用するフレームワークであるAF-MAT(Aspect-aware Flip-and-Fuse xLSTM)を紹介する。
AF-MATはアスペクトゲートを導入したAspect-aware matrix LSTM (AA-mLSTM) 機構を備えており、メモリ更新中にターゲットアスペクトに意味のあるトークンを選択的に強調することができる。
マルチスケールコンテキストをモデル化するために、部分的にフリップしたConv1D (pf-Conv1D) を順次適用したFlipMixブロックを用いて、逆順で短距離依存をキャプチャし、続いてフルシーケンス逆転による長距離依存をモデル化する完全フリップされたmLSTM (ff-mLSTM) を組み込む。
また,AMS-mLSTM出力をFlipMix出力(値)で動的に融合する,mLSTMゲーティングに基づく軽量なマルチヘッドクロスフィーチャーフュージョンであるMC2Fを提案する。
3つのベンチマークデータセットの実験では、AF-MATは最先端のベースラインより優れており、ABSAタスクの精度が高いことが示されている。
関連論文リスト
- Graft: Integrating the Domain Knowledge via Efficient Parameter Synergy for MLLMs [56.76586846269894]
MLLM(Multimodal Large Language Models)は、様々な領域で成功している。
その重要性にもかかわらず、ドメイン固有のMLLM間の知識共有の研究はほとんど未調査のままである。
専門家機能のモジュール構成を可能にする統一パラメータ統合フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-30T15:07:41Z) - Routing Mamba: Scaling State Space Models with Mixture-of-Experts Projection [88.47928738482719]
線形状態空間モデル(SSM)は、シーケンスモデリングにおいて顕著なパフォーマンス向上を提供する。
Mambaのような最近の進歩は、入力依存のゲーティングとハードウェア対応の実装により、SSMをさらに強化している。
本稿では,線形射影の専門家による疎混合を用いてSSMパラメータをスケールする新しい手法であるRoM(Roing Mamba)を紹介する。
論文 参考訳(メタデータ) (2025-06-22T19:26:55Z) - Comprehensive Attribute Encoding and Dynamic LSTM HyperModels for Outcome Oriented Predictive Business Process Monitoring [5.634923879819779]
予測的ビジネスプロセスモニタリングは、進行中のビジネスプロセスの将来の結果を予測することを目的としています。
既存のメソッドは、同時イベントやクラス不均衡、マルチレベル属性といった現実世界の課題を扱う柔軟性に欠けることが多い。
本稿では,イベント属性とシーケンス属性の2レベル階層符号化を統合した動的LSTMハイパーモデルを提案する。
多次元埋め込みと時間差フラグ拡張を活用する、同時イベントモデリングのための特殊なLSTM変種。
論文 参考訳(メタデータ) (2025-06-04T08:27:58Z) - Distilling Transitional Pattern to Large Language Models for Multimodal Session-based Recommendation [67.84581846180458]
セッションベースのレコメンデーション(SBR)は、匿名セッションに基づいて次の項目を予測する。
近年のMultimodal SBR法は、モダリティ学習に単純化された事前学習モデルを用いるが、セマンティック・リッチネスに制限がある。
蒸留パラダイムを拡張し,MSBRの促進のための遷移パターンを分離・整合させる多モードLCM拡張フレームワークTPADを提案する。
論文 参考訳(メタデータ) (2025-04-13T07:49:08Z) - DSMoE: Matrix-Partitioned Experts with Dynamic Routing for Computation-Efficient Dense LLMs [70.91804882618243]
本稿では,事前学習したFFN層を計算ブロックに分割することで,分散化を実現するDSMoEを提案する。
我々は,Sigmoid アクティベーションとストレートスルー推定器を用いた適応型エキスパートルーティングを実装し,トークンがモデル知識の様々な側面に柔軟にアクセスできるようにする。
LLaMAモデルを用いた実験により、DSMoEは既存のプルーニング法やMoE法に比べて優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2025-02-18T02:37:26Z) - MAL: Cluster-Masked and Multi-Task Pretraining for Enhanced xLSTM Vision Performance [2.45239928345171]
MAL(Cluster-Masked and Multi-Task Pretraining for Enhanced xLSTM Vision Performance)を導入する。
本稿では,局所的な特徴の捕捉を大幅に改善し,画像スキャン効率を最適化するクラスタマスキング手法を提案する。
我々のユニバーサルエンコーダ・デコーダ事前訓練アプローチは、画像自己回帰、深さ推定、画像分割を含む複数のタスクを統合し、様々な視覚的タスクにおけるモデルの適応性と堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-12-14T07:58:24Z) - Unlocking the Power of LSTM for Long Term Time Series Forecasting [27.245021350821638]
本稿では, sLSTM 上に実装したP-sLSTM という単純なアルゴリズムを提案する。
これらの改良により、TSFにおけるsLSTMの性能が大幅に向上し、最先端の結果が得られた。
論文 参考訳(メタデータ) (2024-08-19T13:59:26Z) - Maximize to Explore: One Objective Function Fusing Estimation, Planning,
and Exploration [87.53543137162488]
我々はtextttMEX というオンライン強化学習(オンラインRL)フレームワークを提案する。
textttMEXは、自動的に探索エクスプロイトのバランスをとりながら、見積もりと計画コンポーネントを統合する。
様々な MuJoCo 環境では,ベースラインを安定的なマージンで上回り,十分な報酬を得られる。
論文 参考訳(メタデータ) (2023-05-29T17:25:26Z) - Towards Energy-Efficient, Low-Latency and Accurate Spiking LSTMs [1.7969777786551424]
Spiking Neural Networks(SNN)は、複雑なタスクのための魅力的なテンポラルコンピューティングパラダイムビジョンとして登場した。
そこで本研究では,新規な長期記憶ネットワーク(LSTM)の学習フレームワークを提案する。
rev-to-SNN変換フレームワーク、続いてSNNトレーニング。
我々は、時間的M、Google Speech Commands(GSC)データセット、異なるLSTMアーキテクチャ上のUCIスマートフォンなど、逐次学習タスクに関するフレームワークを評価した。
論文 参考訳(メタデータ) (2022-10-23T04:10:27Z) - Bayesian Neural Network Language Modeling for Speech Recognition [59.681758762712754]
長期記憶リカレントニューラルネットワーク(LSTM-RNN)とトランスフォーマーで表される最先端のニューラルネットワーク言語モデル(NNLM)は非常に複雑になりつつある。
本稿では,LSTM-RNN と Transformer LM の基盤となる不確実性を考慮するために,ベイズ学習フレームワークの全体構造を提案する。
論文 参考訳(メタデータ) (2022-08-28T17:50:19Z) - Long short-term memory networks and laglasso for bond yield forecasting:
Peeping inside the black box [10.412912723760172]
長期記憶(LSTM)ネットワークを用いた結合収率予測の最初の研究を行った。
我々は,シーケンス・ツー・シーケンス・アーキテクチャを用いて,メモリセル内の選択された位置におけるLSTM信号の時間的計算を行う。
論文 参考訳(メタデータ) (2020-05-05T14:23:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。