論文の概要: Transformer-based Detection of Multiword Expressions in Flower and Plant
Names
- arxiv url: http://arxiv.org/abs/2209.08016v1
- Date: Fri, 16 Sep 2022 15:59:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-19 12:32:34.484127
- Title: Transformer-based Detection of Multiword Expressions in Flower and Plant
Names
- Title(参考訳): 変圧器を用いた花名と植物名中の多語表現の検出
- Authors: Damith Premasiri, Amal Haddad Haddad, Tharindu Ranasinghe, and Ruslan
Mitkov
- Abstract要約: MWE (Multiword Expression) は、個々の単語から派生していない意味を集合的に表す単語の列である。
本稿では,花名や植物名中のMWEを検出する作業において,最先端のニューラルトランスフォーマーについて検討する。
- 参考スコア(独自算出の注目度): 9.281156301926769
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multiword expression (MWE) is a sequence of words which collectively present
a meaning which is not derived from its individual words. The task of
processing MWEs is crucial in many natural language processing (NLP)
applications, including machine translation and terminology extraction.
Therefore, detecting MWEs in different domains is an important research topic.
In this paper, we explore state-of-the-art neural transformers in the task of
detecting MWEs in flower and plant names. We evaluate different transformer
models on a dataset created from Encyclopedia of Plants and Flower. We
empirically show that transformer models outperform the previous neural models
based on long short-term memory (LSTM).
- Abstract(参考訳): MWE (Multiword Expression) は、個々の単語から派生していない意味を集合的に表す単語の列である。
MWEの処理は、機械翻訳や用語抽出を含む多くの自然言語処理(NLP)アプリケーションにおいて重要である。
したがって、異なる領域におけるMWEの検出は重要な研究課題である。
本稿では,花名および植物名におけるmweを検出する作業において,最先端のニューラルトランスフォーマについて検討する。
Incyclopedia of Plants and Flowerから作成したデータセット上で,異なるトランスフォーマーモデルを評価する。
本研究では,長短期記憶(LSTM)に基づいて,トランスフォーマーモデルが従来のニューラルモデルより優れていることを示す。
関連論文リスト
- Semantics of Multiword Expressions in Transformer-Based Models: A Survey [8.372465442144048]
MWE(Multiword Expression)は複数の単語からなり、構成度の変動を示す。
トランスモデルを用いたMWE処理の詳細な調査を行った。
その結果,MWEのセマンティクスは表面パターンや記憶情報に依存して不整合であることがわかった。
論文 参考訳(メタデータ) (2024-01-27T11:51:11Z) - Probabilistic Transformer: A Probabilistic Dependency Model for
Contextual Word Representation [52.270712965271656]
本稿では,文脈表現の新しいモデルを提案する。
モデルのグラフは変換器に似ており、依存関係と自己意識の対応性がある。
実験により,本モデルが小型・中型データセットのトランスフォーマーと競合することを示す。
論文 参考訳(メタデータ) (2023-11-26T06:56:02Z) - A Comprehensive Survey on Applications of Transformers for Deep Learning
Tasks [60.38369406877899]
Transformerは、シーケンシャルデータ内のコンテキスト関係を理解するために自己認識メカニズムを使用するディープニューラルネットワークである。
Transformerモデルは、入力シーケンス要素間の長い依存関係を処理し、並列処理を可能にする。
我々の調査では、トランスフォーマーベースのモデルのためのトップ5のアプリケーションドメインを特定します。
論文 参考訳(メタデータ) (2023-06-11T23:13:51Z) - Deep Learning Methods for Extracting Metaphorical Names of Flowers and
Plants [10.138996506132344]
識別モデルはGPT-3.5モデルよりも優れており,最も優れたパフォーマーは92.2349%のF1スコアを隠喩花と植物名識別タスクで報告している。
論文 参考訳(メタデータ) (2023-05-18T09:22:29Z) - Detecting Idiomatic Multiword Expressions in Clinical Terminology using
Definition-Based Representation Learning [12.30055843580139]
バイオメディカルなMWEの慣用性を評価するための有効なツールを開発し,それらのMWEの意味表現とそれらの構成成分の表現の重み付け平均との類似度に基づいて評価する。
以上の結果から,BioLORDモデルは他のモデルでは再現されず,慣用的なMWEを識別する能力が強いことが示唆された。
論文 参考訳(メタデータ) (2023-05-11T13:42:58Z) - Mapping of attention mechanisms to a generalized Potts model [50.91742043564049]
ニューラルネットワークのトレーニングは、いわゆる擬似様相法によって逆ポッツ問題を解くのと全く同じであることを示す。
また、レプリカ法を用いてモデルシナリオにおける自己意図の一般化誤差を解析的に計算する。
論文 参考訳(メタデータ) (2023-04-14T16:32:56Z) - BERT(s) to Detect Multiword Expressions [9.710464466895521]
MWE(Multiword Expression)は、全体の意味がその部分の意味から派生していない単語群である。
本稿では,MWE検出作業における最先端のニューラルトランスフォーマーについて検討する。
論文 参考訳(メタデータ) (2022-08-16T16:32:23Z) - A Novel Graph-based Multi-modal Fusion Encoder for Neural Machine
Translation [131.33610549540043]
NMTのための新しいグラフベースのマルチモーダル核融合エンコーダを提案する。
まず、統合マルチモーダルグラフを用いて、入力文と画像を表す。
次に、複数のグラフベースのマルチモーダル融合層を積み重ねて、ノード表現を学習するためのセマンティックな相互作用を反復的に実行する。
論文 参考訳(メタデータ) (2020-07-17T04:06:09Z) - DSTC8-AVSD: Multimodal Semantic Transformer Network with Retrieval Style
Word Generator [61.70748716353692]
オーディオ・ビジュアル・シーン・アウェア・ダイアログ(AVSD)は、あるシーン、ビデオ、オーディオ、ダイアログの前のターン履歴で質問に対する応答を生成するタスクである。
このタスクの既存のシステムは、エンコーダ-デコーダフレームワークを備えたトランスフォーマーまたはリカレントニューラルネットワークベースのアーキテクチャを採用している。
本稿では,マルチモーダル・セマンティック・トランスフォーマー・ネットワークを提案し,単語の埋め込みを問合せすることで単語を生成する単語埋め込み層を備えたトランスフォーマー・アーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-04-01T07:10:08Z) - Variational Transformers for Diverse Response Generation [71.53159402053392]
変分変換器(VT)は、変分自己注意フィードフォワードシーケンスモデルである。
VTはトランスフォーマーの並列化性と大域的受容場計算とCVAEの変動特性を組み合わせる。
本稿では,1)大域潜伏変数を用いた談話レベルの多様性のモデル化,2)細粒潜伏変数の列によるトランスフォーマーデコーダの拡張,の2種類のVTについて検討する。
論文 参考訳(メタデータ) (2020-03-28T07:48:02Z) - Morphological Word Segmentation on Agglutinative Languages for Neural
Machine Translation [8.87546236839959]
ニューラル機械翻訳(NMT)のソース側における形態素単語分割法を提案する。
形態学の知識を取り入れて、単語構造における言語情報や意味情報を保存し、訓練時の語彙サイズを小さくする。
これは、他の自然言語処理(NLP)タスクのために、単語を集約言語に分割する前処理ツールとして利用することができる。
論文 参考訳(メタデータ) (2020-01-02T10:05:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。