論文の概要: ComOM at VLSP 2023: A Dual-Stage Framework with BERTology and Unified
Multi-Task Instruction Tuning Model for Vietnamese Comparative Opinion Mining
- arxiv url: http://arxiv.org/abs/2312.09000v1
- Date: Thu, 14 Dec 2023 14:44:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-15 21:37:52.310063
- Title: ComOM at VLSP 2023: A Dual-Stage Framework with BERTology and Unified
Multi-Task Instruction Tuning Model for Vietnamese Comparative Opinion Mining
- Title(参考訳): comom at vlsp 2023: ベトナムの比較意見マイニングのためのbertologyとunified multi-task命令チューニングモデルを備えたデュアルステージフレームワーク
- Authors: Dang Van Thin, Duong Ngoc Hao, Ngan Luu-Thuy Nguyen
- Abstract要約: ComOM共有タスクは、ベトナム語の製品レビューから比較意見を抽出することを目的としている。
本稿では,CSIタスクのためのBERTologyモデルを微調整し,CEEタスクのためのマルチタスク命令チューニングを統一した2段階システムを提案する。
実験の結果,本手法は他の競合相手よりも優れており,公式のプライベートテストでトップスコアを獲得していることがわかった。
- 参考スコア(独自算出の注目度): 0.6522338519818377
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The ComOM shared task aims to extract comparative opinions from product
reviews in Vietnamese language. There are two sub-tasks, including (1)
Comparative Sentence Identification (CSI) and (2) Comparative Element
Extraction (CEE). The first task is to identify whether the input is a
comparative review, and the purpose of the second task is to extract the
quintuplets mentioned in the comparative review. To address this task, our team
proposes a two-stage system based on fine-tuning a BERTology model for the CSI
task and unified multi-task instruction tuning for the CEE task. Besides, we
apply the simple data augmentation technique to increase the size of the
dataset for training our model in the second stage. Experimental results show
that our approach outperforms the other competitors and has achieved the top
score on the official private test.
- Abstract(参考訳): ComOM共有タスクは、ベトナム語の製品レビューから比較意見を抽出することを目的としている。
1)比較文識別(CSI)と(2)比較要素抽出(CEE)の2つのサブタスクがある。
第1のタスクは、入力が比較レビューであるかどうかを識別し、第2のタスクは比較レビューで言及されているクインタプレットを抽出することである。
この課題に対処するために,本研究では,csiタスクのbertologyモデルとceeタスクの統一マルチタスク命令チューニングを微調整した2段階システムを提案する。
さらに,この単純なデータ拡張手法を適用して,第2段階でモデルをトレーニングするためのデータセットのサイズを拡大する。
実験の結果,我々のアプローチは他の競争相手よりも優れており,公式プライベートテストでトップスコアを獲得していることがわかった。
関連論文リスト
- Narrative Action Evaluation with Prompt-Guided Multimodal Interaction [60.281405999483]
ナラティブ・アクション・アセスメント(NAE)は、行動の実行を評価する専門家のコメントを作成することを目的としている。
NAEは、物語の柔軟性と評価の厳格さの両方を必要とするため、より困難なタスクです。
本稿では,様々な情報モダリティ間のインタラクションを容易にするための,プロンプト誘導型マルチモーダルインタラクションフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-22T17:55:07Z) - AAdaM at SemEval-2024 Task 1: Augmentation and Adaptation for Multilingual Semantic Textual Relatedness [16.896143197472114]
本稿では,アフリカとアジアの言語に対するセマンティックテキスト関連性(SemEval-2024 Task 1: Semantic Textual Relatedness)について述べる。
本稿では,限られたトレーニングデータの低リソース化問題に対処するために,機械翻訳によるデータ拡張を提案する。
我々のシステムは、サブタスクA(教師付き学習)とサブタスクC(言語間の移動)の両方において、すべてのチームの中で最善を尽くします。
論文 参考訳(メタデータ) (2024-04-01T21:21:15Z) - Co-guiding for Multi-intent Spoken Language Understanding [53.30511968323911]
本稿では,2つのタスク間の相互指導を実現するための2段階のフレームワークを実装した,コガイドネットと呼ばれる新しいモデルを提案する。
第1段階では,単一タスクによる教師付きコントラスト学習を提案し,第2段階ではコガイドによる教師付きコントラスト学習を提案する。
マルチインテリジェントSLU実験の結果,我々のモデルは既存のモデルよりも大きなマージンで優れていることがわかった。
論文 参考訳(メタデータ) (2023-11-22T08:06:22Z) - Rethinking and Improving Multi-task Learning for End-to-end Speech
Translation [51.713683037303035]
異なる時間とモジュールを考慮したタスク間の整合性について検討する。
テキストエンコーダは、主にクロスモーダル変換を容易にするが、音声におけるノイズの存在は、テキストと音声表現の一貫性を妨げる。
長さと表現の差を軽減し,モーダルギャップを橋渡しする,STタスクのための改良型マルチタスク学習(IMTL)手法を提案する。
論文 参考訳(メタデータ) (2023-11-07T08:48:46Z) - Effective Cross-Task Transfer Learning for Explainable Natural Language
Inference with T5 [50.574918785575655]
2つのタスクのパフォーマンス向上という文脈において、逐次微調整とマルチタスク学習のモデルを比較した。
この結果から,2つのタスクのうち,第1のタスクにおいて逐次マルチタスク学習は良好に調整できるが,第2のタスクでは性能が低下し,過度な適合に苦しむことが明らかとなった。
論文 参考訳(メタデータ) (2022-10-31T13:26:08Z) - UU-Tax at SemEval-2022 Task 3: Improving the generalizability of
language models for taxonomy classification through data augmentation [0.0]
本稿では,SemEval-2022 Task 3 PreTENS: Presuposed Taxonomies Evaluation Neural Network Semanticsについて述べる。
タスクの目標は、文に含まれる名詞対の間の分類学的関係によって、ある文が受け入れられているか否かを識別することである。
より優れた分類のための言語モデルの堅牢性と一般化性を高める効果的な方法を提案する。
論文 参考訳(メタデータ) (2022-10-07T07:41:28Z) - Using contextual sentence analysis models to recognize ESG concepts [8.905370601886112]
本稿では,ラ・ロシェル大学のTrading Central LabsとL3i研究所のFinSim-4評価キャンペーンの2つのサブタスクへの参加について要約する。
第1のサブタスクは「Fortia ESG分類」を新しい辞書エントリで強化することを目的としており、第2のタスクは、ESGに関連する要因に関して文を「持続可能」または「持続不可能」に分類することを目的としている。
論文 参考訳(メタデータ) (2022-07-04T13:33:21Z) - OCHADAI at SemEval-2022 Task 2: Adversarial Training for Multilingual
Idiomaticity Detection [4.111899441919165]
文が慣用的表現を含むか否かを判定する多言語逆行訓練モデルを提案する。
我々のモデルは、異なる多言語変換言語モデルからの事前学習された文脈表現に依存している。
論文 参考訳(メタデータ) (2022-06-07T05:52:43Z) - UniTE: Unified Translation Evaluation [63.58868113074476]
UniTEは3つの評価タスクをすべて処理する能力に携わる最初の統合フレームワークである。
We testify our framework on WMT 2019 Metrics and WMT 2020 Quality Estimation benchmarks。
論文 参考訳(メタデータ) (2022-04-28T08:35:26Z) - STraTA: Self-Training with Task Augmentation for Better Few-shot
Learning [77.04780470527432]
タスク拡張による自己学習のためのSTraTAを提案する。
実験の結果,STraTAは12個のベンチマークでサンプル効率を大幅に向上できることがわかった。
分析の結果,タスク強化と自己学習は相補的かつ独立的に有効であることが判明した。
論文 参考訳(メタデータ) (2021-09-13T19:14:01Z) - BUT-FIT at SemEval-2020 Task 4: Multilingual commonsense [1.433758865948252]
本稿では,SemEval 2020 Task 4 - Commonsense Validation and ExplanationにおけるBUT-FITチームの作業について述べる。
サブタスクAとBでは、事前訓練された言語表現モデル(ALBERT)とデータ拡張に基づいている。
我々は、多言語モデルと機械翻訳データセットを用いて、別の言語であるチェコ語のタスクを解く実験を行った。
強い機械翻訳システムでは, 精度の低下を少なく抑えながら, 他言語で使用することができることを示す。
論文 参考訳(メタデータ) (2020-08-17T12:45:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。