論文の概要: Train Once for All: A Transitional Approach for Efficient Aspect Sentiment Triplet Extraction
- arxiv url: http://arxiv.org/abs/2412.00208v1
- Date: Fri, 29 Nov 2024 19:10:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:47:11.147749
- Title: Train Once for All: A Transitional Approach for Efficient Aspect Sentiment Triplet Extraction
- Title(参考訳): 全列車:効率的なアスペクト・センチメント・トリプレット抽出のための過渡的アプローチ
- Authors: Xinmeng Hou, Lingyue Fu, Chenhao Meng, Hai Hu,
- Abstract要約: 本稿では,トークンレベルのバイアスを緩和し,位置認識のアスペクト-オピニオン関係を捉えるトランジションベースのパイプラインを提案する。
融合データセットとコントラスト学習最適化を用いることで、ロバストなアクションパターンを学習し、個別のサブタスクを共同で最適化することができる。
その結果,本モデルがASTEタスクとAOPEタスクの両方で最高の性能を達成し,F1尺度の少なくとも6.98%の精度で最先端の手法よりも優れた結果が得られた。
- 参考スコア(独自算出の注目度): 3.273286522350748
- License:
- Abstract: Aspect-Opinion Pair Extraction (AOPE) and Aspect Sentiment Triplet Extraction (ASTE) have gained significant attention in natural language processing. However, most existing methods are a pipelined framework, which extracts aspects/opinions and identifies their relations separately, leading to a drawback of error propagation and high time complexity. Towards this problem, we propose a transition-based pipeline to mitigate token-level bias and capture position-aware aspect-opinion relations. With the use of a fused dataset and contrastive learning optimization, our model learns robust action patterns and can optimize separate subtasks jointly, often with linear-time complexity. The results show that our model achieves the best performance on both the ASTE and AOPE tasks, outperforming the state-of-the-art methods by at least 6.98\% in the F1 measure. The code is available at https://github.com/Paparare/trans_aste.
- Abstract(参考訳): AOPE(Aspect-Opinion Pair extract)とASTE(Aspect Sentiment Triplet extract)は自然言語処理において大きな注目を集めている。
しかし、既存のほとんどのメソッドはパイプライン化されたフレームワークであり、アスペクト/オピニオンを抽出し、それらの関係を別々に識別する。
そこで本稿では,トークンレベルのバイアスを緩和し,位置認識型アスペクト-オピニオン関係を捕捉するトランジションベースのパイプラインを提案する。
融合したデータセットと対照的な学習最適化を用いることで、我々のモデルは堅牢なアクションパターンを学習し、しばしば線形時間複雑性とともに、個別のサブタスクを共同で最適化することができる。
その結果,本モデルがASTEタスクとAOPEタスクの両方で最高の性能を達成し,F1尺度の少なくとも6.98倍の精度で最先端の手法よりも優れた結果が得られた。
コードはhttps://github.com/Paparare/trans_aste.comで公開されている。
関連論文リスト
- Improving General Text Embedding Model: Tackling Task Conflict and Data Imbalance through Model Merging [33.23758947497205]
高度な埋め込みモデルは、通常、大規模マルチタスクデータと複数のタスクをまたいだ共同トレーニングを用いて開発される。
これらの課題を克服するために、独立に訓練されたモデルを組み合わせて勾配の衝突を緩和し、データ分散のバランスをとるモデルマージングについて検討する。
本稿では,勾配降下を用いたタスクベクトル空間内の最適モデル組合せを効率的に探索する新たな手法であるSelf Positioningを提案する。
論文 参考訳(メタデータ) (2024-10-19T08:39:21Z) - MITA: Bridging the Gap between Model and Data for Test-time Adaptation [68.62509948690698]
テスト時間適応(TTA)は、モデルの一般化性を高めるための有望なパラダイムとして登場した。
本稿では,Met-In-The-MiddleをベースとしたMITAを提案する。
論文 参考訳(メタデータ) (2024-10-12T07:02:33Z) - Sample Enrichment via Temporary Operations on Subsequences for Sequential Recommendation [15.718287580146272]
本稿では,SETO(Subsequences on Subsequences)を用いたサンプルエンリッチメントという,シーケンシャルレコメンデーションのための新しいモデルに依存しない高汎用フレームワークを提案する。
複数の実世界のデータセットにまたがる、複数の代表的および最先端のシーケンシャルレコメンデーションモデルに対するSETOの有効性と汎用性を強調します。
論文 参考訳(メタデータ) (2024-07-25T06:22:08Z) - Weak Reward Model Transforms Generative Models into Robust Causal Event Extraction Systems [17.10762463903638]
我々は人的評価を近似するために評価モデルを訓練し、高い合意を得る。
そこで本研究では,アノテートデータの一部を用いて評価モデルを訓練する弱強監督手法を提案する。
論文 参考訳(メタデータ) (2024-06-26T10:48:14Z) - Deciphering Movement: Unified Trajectory Generation Model for Multi-Agent [53.637837706712794]
任意の軌道をマスク入力として処理する統一軌道生成モデルUniTrajを提案する。
具体的には,空間特徴抽出のためのトランスフォーマーエンコーダ内に埋め込まれたゴースト空間マスキング(GSM)モジュールを導入する。
バスケットボール-U,サッカー-U,サッカー-Uの3つの実用的なスポーツゲームデータセットをベンチマークして評価を行った。
論文 参考訳(メタデータ) (2024-05-27T22:15:23Z) - Fantastic Gains and Where to Find Them: On the Existence and Prospect of
General Knowledge Transfer between Any Pretrained Model [74.62272538148245]
事前訓練されたモデルの任意のペアリングに対して、一方のモデルは他方では利用できない重要なデータコンテキストを抽出する。
このような「補的」な知識を,性能劣化を伴わずに,あるモデルから別のモデルへ伝達できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-10-26T17:59:46Z) - Towards Large-scale 3D Representation Learning with Multi-dataset Point Prompt Training [44.790636524264]
ポイント・プロンプト・トレーニング(Point Prompt Training)は、3D表現学習の文脈におけるマルチデータセットのシナジスティック学習のための新しいフレームワークである。
シナジスティック学習に関連する負の移動を克服し、一般化可能な表現を生成する。
教師付きマルチデータセットトレーニングを備えた1つの重み付きモデルを用いて、各データセットの最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-08-18T17:59:57Z) - Mitigating Representation Bias in Action Recognition: Algorithms and
Benchmarks [76.35271072704384]
ディープラーニングモデルは、稀なシーンやオブジェクトを持つビデオに適用すると、パフォーマンスが悪くなります。
この問題にはアルゴリズムとデータセットの2つの異なる角度から対処する。
偏りのある表現は、他のデータセットやタスクに転送するとより一般化できることを示す。
論文 参考訳(メタデータ) (2022-09-20T00:30:35Z) - Beyond Transfer Learning: Co-finetuning for Action Localisation [64.07196901012153]
同時に、複数のアップストリームとダウンストリームのタスクで1つのモデルをトレーニングする。
共ファインタニングは、同じデータ量を使用する場合、従来のトランスファーラーニングよりも優れていることを示す。
さらに、複数のアップストリームデータセットへのアプローチを簡単に拡張して、パフォーマンスをさらに向上する方法も示しています。
論文 参考訳(メタデータ) (2022-07-08T10:25:47Z) - S^3-Rec: Self-Supervised Learning for Sequential Recommendation with
Mutual Information Maximization [104.87483578308526]
本稿では,シーケンスレコメンデーションのための自己改善学習のためのモデルS3-Recを提案する。
そこで本稿では,属性,項目,サブシーケンス,シーケンス間の相関関係を学習するために,4つの補助的自己教師対象を考案する。
6つの実世界のデータセットで実施された大規模な実験は、既存の最先端手法よりも提案手法が優れていることを示す。
論文 参考訳(メタデータ) (2020-08-18T11:44:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。