論文の概要: Train Once for All: A Transitional Approach for Efficient Aspect Sentiment Triplet Extraction
- arxiv url: http://arxiv.org/abs/2412.00208v2
- Date: Fri, 07 Feb 2025 12:12:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-10 14:53:48.869755
- Title: Train Once for All: A Transitional Approach for Efficient Aspect Sentiment Triplet Extraction
- Title(参考訳): 全列車:効率的なアスペクト・センチメント・トリプレット抽出のための過渡的アプローチ
- Authors: Xinmeng Hou, Lingyue Fu, Chenhao Meng, Kounianhua Du, Wuqi Wang, Hai Hu,
- Abstract要約: 本稿では,アスペクト抽出と意見抽出を共同で行うAOPEとASTEの遷移モデルを提案する。
対照的に拡張された最適化を統合することで、我々のモデルはより正確な行動予測を提供する。
我々のモデルは、組み合わせたデータセットでトレーニングした場合、ASTEとAOPEの両方で最高のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 4.372906783600122
- License:
- Abstract: Aspect-Opinion Pair Extraction (AOPE) and Aspect Sentiment Triplet Extraction (ASTE) have drawn growing attention in NLP. However, most existing approaches extract aspects and opinions independently, optionally adding pairwise relations, often leading to error propagation and high time complexity. To address these challenges and being inspired by transition-based dependency parsing, we propose the first transition-based model for AOPE and ASTE that performs aspect and opinion extraction jointly, which also better captures position-aware aspect-opinion relations and mitigates entity-level bias. By integrating contrastive-augmented optimization, our model delivers more accurate action predictions and jointly optimizes separate subtasks in linear time. Extensive experiments on 4 commonly used ASTE/AOPE datasets show that, while performing worse when trained on a single dataset than some previous models, our model achieves the best performance on both ASTE and AOPE if trained on combined datasets, outperforming the strongest previous models in F1-measures (often by a large margin). We hypothesize that this is due to our model's ability to learn transition actions from multiple datasets and domains. Our code is available at https://anonymous.4open.science/r/trans_aste-8FCF.
- Abstract(参考訳): AOPE(Aspect-Opinion Pair extract)とASTE(Aspect Sentiment Triplet extract)はNLPにおいて注目を集めている。
しかし、既存のほとんどのアプローチはアスペクトと意見を独立に抽出し、任意にペア関係を追加し、しばしばエラーの伝播と高時間複雑化につながる。
これらの課題に対処し、遷移に基づく依存性解析にインスパイアされた、アスペクトと意見の抽出を共同で行うAOPEとASTEの最初の遷移ベースモデルを提案する。
対照的に拡張された最適化を統合することで、より正確な動作予測を行い、線形時間で個別のサブタスクを共同で最適化する。
一般的な4つのASTE/AOPEデータセットに対する大規模な実験により、単一のデータセットでトレーニングされた場合、以前のモデルよりも悪い結果が得られたが、組み合わせたデータセットでトレーニングした場合には、ASTEとAOPEの両方で最高のパフォーマンスを達成し、F1尺度(多くの場合、大きなマージンで)で最強のモデルを上回る結果が得られた。
これは、モデルが複数のデータセットやドメインからトランジッションアクションを学習する能力に起因している、という仮説を立てています。
私たちのコードはhttps://anonymous.4open.science/r/trans_aste-8FCFで利用可能です。
関連論文リスト
- Improving General Text Embedding Model: Tackling Task Conflict and Data Imbalance through Model Merging [33.23758947497205]
高度な埋め込みモデルは、通常、大規模マルチタスクデータと複数のタスクをまたいだ共同トレーニングを用いて開発される。
これらの課題を克服するために、独立に訓練されたモデルを組み合わせて勾配の衝突を緩和し、データ分散のバランスをとるモデルマージングについて検討する。
本稿では,勾配降下を用いたタスクベクトル空間内の最適モデル組合せを効率的に探索する新たな手法であるSelf Positioningを提案する。
論文 参考訳(メタデータ) (2024-10-19T08:39:21Z) - MITA: Bridging the Gap between Model and Data for Test-time Adaptation [68.62509948690698]
テスト時間適応(TTA)は、モデルの一般化性を高めるための有望なパラダイムとして登場した。
本稿では,Met-In-The-MiddleをベースとしたMITAを提案する。
論文 参考訳(メタデータ) (2024-10-12T07:02:33Z) - Sample Enrichment via Temporary Operations on Subsequences for Sequential Recommendation [15.718287580146272]
本稿では,SETO(Subsequences on Subsequences)を用いたサンプルエンリッチメントという,シーケンシャルレコメンデーションのための新しいモデルに依存しない高汎用フレームワークを提案する。
複数の実世界のデータセットにまたがる、複数の代表的および最先端のシーケンシャルレコメンデーションモデルに対するSETOの有効性と汎用性を強調します。
論文 参考訳(メタデータ) (2024-07-25T06:22:08Z) - Weak Reward Model Transforms Generative Models into Robust Causal Event Extraction Systems [17.10762463903638]
我々は人的評価を近似するために評価モデルを訓練し、高い合意を得る。
そこで本研究では,アノテートデータの一部を用いて評価モデルを訓練する弱強監督手法を提案する。
論文 参考訳(メタデータ) (2024-06-26T10:48:14Z) - Deciphering Movement: Unified Trajectory Generation Model for Multi-Agent [53.637837706712794]
任意の軌道をマスク入力として処理する統一軌道生成モデルUniTrajを提案する。
具体的には,空間特徴抽出のためのトランスフォーマーエンコーダ内に埋め込まれたゴースト空間マスキング(GSM)モジュールを導入する。
バスケットボール-U,サッカー-U,サッカー-Uの3つの実用的なスポーツゲームデータセットをベンチマークして評価を行った。
論文 参考訳(メタデータ) (2024-05-27T22:15:23Z) - Fantastic Gains and Where to Find Them: On the Existence and Prospect of
General Knowledge Transfer between Any Pretrained Model [74.62272538148245]
事前訓練されたモデルの任意のペアリングに対して、一方のモデルは他方では利用できない重要なデータコンテキストを抽出する。
このような「補的」な知識を,性能劣化を伴わずに,あるモデルから別のモデルへ伝達できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-10-26T17:59:46Z) - Towards Large-scale 3D Representation Learning with Multi-dataset Point Prompt Training [44.790636524264]
ポイント・プロンプト・トレーニング(Point Prompt Training)は、3D表現学習の文脈におけるマルチデータセットのシナジスティック学習のための新しいフレームワークである。
シナジスティック学習に関連する負の移動を克服し、一般化可能な表現を生成する。
教師付きマルチデータセットトレーニングを備えた1つの重み付きモデルを用いて、各データセットの最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-08-18T17:59:57Z) - Mitigating Representation Bias in Action Recognition: Algorithms and
Benchmarks [76.35271072704384]
ディープラーニングモデルは、稀なシーンやオブジェクトを持つビデオに適用すると、パフォーマンスが悪くなります。
この問題にはアルゴリズムとデータセットの2つの異なる角度から対処する。
偏りのある表現は、他のデータセットやタスクに転送するとより一般化できることを示す。
論文 参考訳(メタデータ) (2022-09-20T00:30:35Z) - Beyond Transfer Learning: Co-finetuning for Action Localisation [64.07196901012153]
同時に、複数のアップストリームとダウンストリームのタスクで1つのモデルをトレーニングする。
共ファインタニングは、同じデータ量を使用する場合、従来のトランスファーラーニングよりも優れていることを示す。
さらに、複数のアップストリームデータセットへのアプローチを簡単に拡張して、パフォーマンスをさらに向上する方法も示しています。
論文 参考訳(メタデータ) (2022-07-08T10:25:47Z) - S^3-Rec: Self-Supervised Learning for Sequential Recommendation with
Mutual Information Maximization [104.87483578308526]
本稿では,シーケンスレコメンデーションのための自己改善学習のためのモデルS3-Recを提案する。
そこで本稿では,属性,項目,サブシーケンス,シーケンス間の相関関係を学習するために,4つの補助的自己教師対象を考案する。
6つの実世界のデータセットで実施された大規模な実験は、既存の最先端手法よりも提案手法が優れていることを示す。
論文 参考訳(メタデータ) (2020-08-18T11:44:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。