論文の概要: BERT(s) to Detect Multiword Expressions
- arxiv url: http://arxiv.org/abs/2208.07832v1
- Date: Tue, 16 Aug 2022 16:32:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-17 12:26:37.544021
- Title: BERT(s) to Detect Multiword Expressions
- Title(参考訳): マルチワード表現を検出するBERT(s)
- Authors: Damith Premasiri and Tharindu Ranasinghe
- Abstract要約: MWE(Multiword Expression)は、全体の意味がその部分の意味から派生していない単語群である。
本稿では,MWE検出作業における最先端のニューラルトランスフォーマーについて検討する。
- 参考スコア(独自算出の注目度): 9.710464466895521
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multiword expressions (MWEs) present groups of words in which the meaning of
the whole is not derived from the meaning of its parts. The task of processing
MWEs is crucial in many natural language processing (NLP) applications,
including machine translation and terminology extraction. Therefore, detecting
MWEs is a popular research theme. In this paper, we explore state-of-the-art
neural transformers in the task of detecting MWEs.We empirically evaluate
several transformer models in the dataset for SemEval-2016 Task 10: Detecting
Minimal Semantic Units and their Meanings (DiMSUM). We show that transformer
models outperform the previous neural models based on long short-term memory
(LSTM). The code and pre-trained model will be made freely available to the
community.
- Abstract(参考訳): MWE(Multiword Expression)は、全体の意味がその部分の意味から派生していない単語群である。
MWEの処理は、機械翻訳や用語抽出を含む多くの自然言語処理(NLP)アプリケーションにおいて重要である。
したがって、MWEの検出は一般的な研究テーマである。
本稿では,mwes検出タスクにおける最先端のニューラルトランスフォーマについて検討し,semeval-2016タスク10のデータセットにおけるいくつかのトランスフォーマモデルを実証的に評価した。
長短期記憶(LSTM)に基づいて,トランスフォーマーモデルが従来のニューラルモデルより優れていることを示す。
コードと事前訓練されたモデルは、コミュニティに無料で提供される。
関連論文リスト
- Interpretable Language Modeling via Induction-head Ngram Models [74.26720927767398]
誘導ヘッドngramモデル(Induction-Gram)を提案する。
この誘導ヘッドは、カスタムのニューラル類似度メトリックを使用して、モデルの入力コンテキストを効率的に検索し、潜在的に次の単語補完を行う。
実験により,本手法はベースラインの解釈可能なモデルよりも,単語の次単語予測を大幅に改善することが示された。
論文 参考訳(メタデータ) (2024-10-31T12:33:26Z) - Segment-Based Interactive Machine Translation for Pre-trained Models [2.0871483263418806]
対話型機械翻訳環境におけるLLM(Pre-trained large language model)の利用について検討する。
システムは、ユーザが各イテレーションで提供するフィードバックを使って、インタラクティブに完璧な翻訳を生成する。
我々は,mBART,mT5,SoTA(State-of-the-art)機械翻訳モデルの性能を,ユーザ作業に関するベンチマークデータセット上で比較した。
論文 参考訳(メタデータ) (2024-07-09T16:04:21Z) - MTP: Advancing Remote Sensing Foundation Model via Multi-Task Pretraining [73.81862342673894]
ファンデーションモデルは、様々な画像解釈タスクを強化することで、リモートセンシング(RS)のランドスケープを再構築した。
事前訓練されたモデルを下流のタスクに転送することは、イメージ分類やオブジェクト識別タスクとして事前訓練の定式化によるタスクの相違に遭遇する可能性がある。
SAMRSデータセット上で、セマンティックセグメンテーション、インスタンスセグメンテーション、回転オブジェクト検出を含むマルチタスクによる事前トレーニングを行う。
我々のモデルは、シーン分類、水平・回転物体検出、セマンティックセグメンテーション、変化検出など、様々なRS下流タスクに基づいて微調整される。
論文 参考訳(メタデータ) (2024-03-20T09:17:22Z) - Semantics of Multiword Expressions in Transformer-Based Models: A Survey [8.372465442144048]
MWE(Multiword Expression)は複数の単語からなり、構成度の変動を示す。
トランスモデルを用いたMWE処理の詳細な調査を行った。
その結果,MWEのセマンティクスは表面パターンや記憶情報に依存して不整合であることがわかった。
論文 参考訳(メタデータ) (2024-01-27T11:51:11Z) - HilMeMe: A Human-in-the-Loop Machine Translation Evaluation Metric
Looking into Multi-Word Expressions [6.85316573653194]
言語的に動機づけたHuman-in-the-loop評価尺度の設計と実装について,慣用的および用語的マルチワード表現(MWEs)について述べる。
MWEは、MWEを正確で意味のある等価な方法で認識・翻訳する能力を調べることで、異なるMTシステムを区別する主要な要因の1つである。
論文 参考訳(メタデータ) (2022-11-09T21:15:40Z) - Exploring Modulated Detection Transformer as a Tool for Action
Recognition in Videos [0.0]
MDETR(Modulated Detection Transformer)は、エンドツーエンドのマルチモーダル理解モデルである。
設計されていない課題に対処するために,マルチモーダルモデルを使用することが可能であることを示す。
論文 参考訳(メタデータ) (2022-09-21T05:19:39Z) - Transformer-based Detection of Multiword Expressions in Flower and Plant
Names [9.281156301926769]
MWE (Multiword Expression) は、個々の単語から派生していない意味を集合的に表す単語の列である。
本稿では,花名や植物名中のMWEを検出する作業において,最先端のニューラルトランスフォーマーについて検討する。
論文 参考訳(メタデータ) (2022-09-16T15:59:55Z) - Learning to Generalize to More: Continuous Semantic Augmentation for
Neural Machine Translation [50.54059385277964]
CsaNMT(Continuous Semantic Augmentation)と呼ばれる新しいデータ拡張パラダイムを提案する。
CsaNMTは各トレーニングインスタンスを、同じ意味の下で適切なリテラル式をカバーできる隣接領域で拡張する。
論文 参考訳(メタデータ) (2022-04-14T08:16:28Z) - An Exploration of Prompt Tuning on Generative Spoken Language Model for
Speech Processing Tasks [112.1942546460814]
生成音声言語モデル(GSLM)に基づく音声処理タスクの即時チューニングパラダイムの最初の検討について報告する。
実験結果から, 学習可能なパラメータが少ない音声分類タスクにおいて, 高精度なダウンストリームモデルよりも, 即時チューニング手法が競合性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2022-03-31T03:26:55Z) - Exploring Unsupervised Pretraining Objectives for Machine Translation [99.5441395624651]
教師なし言語間事前訓練は、ニューラルマシン翻訳(NMT)の強力な結果を得た
ほとんどのアプローチは、入力の一部をマスキングしてデコーダで再構成することで、シーケンス・ツー・シーケンスアーキテクチャにマスク付き言語モデリング(MLM)を適用する。
マスキングと、実際の(完全な)文に似た入力を生成する代替目的を、文脈に基づいて単語を並べ替えて置き換えることにより比較する。
論文 参考訳(メタデータ) (2021-06-10T10:18:23Z) - Bayesian Transformer Language Models for Speech Recognition [59.235405107295655]
トランスフォーマーで表現される最先端のニューラルネットワークモデル(LM)は非常に複雑である。
本稿では,トランスフォーマーLM推定のためのベイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-09T10:55:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。