論文の概要: Multilingual Name Entity Recognition and Intent Classification Employing
Deep Learning Architectures
- arxiv url: http://arxiv.org/abs/2211.02415v1
- Date: Fri, 4 Nov 2022 12:42:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 16:19:08.566053
- Title: Multilingual Name Entity Recognition and Intent Classification Employing
Deep Learning Architectures
- Title(参考訳): ディープラーニングアーキテクチャを用いた多言語名称認識とインテント分類
- Authors: Sofia Rizou, Antonia Paflioti, Angelos Theofilatos, Athena Vakali,
George Sarigiannidis and Konstantinos Ch. Chatzisavvas
- Abstract要約: 本稿では,2種類のディープラーニングネットワークのエンティティ認識とインテント分類における有効性について検討する。
モデルは、英語とギリシャ語のATISベンチマークデータセットでトレーニングされ、テストされた。
- 参考スコア(独自算出の注目度): 2.9115403886004807
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Named Entity Recognition and Intent Classification are among the most
important subfields of the field of Natural Language Processing. Recent
research has lead to the development of faster, more sophisticated and
efficient models to tackle the problems posed by those two tasks. In this work
we explore the effectiveness of two separate families of Deep Learning networks
for those tasks: Bidirectional Long Short-Term networks and Transformer-based
networks. The models were trained and tested on the ATIS benchmark dataset for
both English and Greek languages. The purpose of this paper is to present a
comparative study of the two groups of networks for both languages and showcase
the results of our experiments. The models, being the current state-of-the-art,
yielded impressive results and achieved high performance.
- Abstract(参考訳): 名前付きエンティティ認識とインテント分類は自然言語処理の分野における最も重要なサブフィールドの一つである。
最近の研究は、これらの2つのタスクが抱える問題に取り組むために、より速く、より洗練され、効率的なモデルの開発に繋がる。
本研究では,双方向長期短期ネットワークとトランスフォーマーネットワークという,2種類の深層学習ネットワークの有効性について検討する。
モデルは英語とギリシャ語のATISベンチマークデータセットでトレーニングされ、テストされた。
本研究の目的は,両言語における2つのネットワーク群の比較研究を行い,実験結果を示すことである。
現在の最先端のモデルであるこのモデルは印象的な結果をもたらし、高い性能を達成した。
関連論文リスト
- A Recipe of Parallel Corpora Exploitation for Multilingual Large Language Models [64.79218405438871]
最近の研究は、多言語大言語モデルを強化するために並列コーパスを利用する可能性を強調している。
並列コーパスで強化された多言語大言語モデルの性能に及ぼす並列コーパスの品質と量,訓練目標,モデルサイズの影響について検討した。
論文 参考訳(メタデータ) (2024-06-29T13:12:39Z) - 2M-NER: Contrastive Learning for Multilingual and Multimodal NER with Language and Modal Fusion [9.038363543966263]
我々は、4つの言語(英語、フランス語、ドイツ語、スペイン語)と2つのモーダル性(テキストと画像)を持つ大規模MMNERデータセットを構築した。
2M-NERと呼ばれる新しいモデルを導入し、コントラスト学習を用いてテキストと画像の表現を整列させ、マルチモーダル協調モジュールを統合する。
比較ベースラインや代表ベースラインと比較して,多言語および多モーダルNERタスクにおいてF1スコアが最も高い。
論文 参考訳(メタデータ) (2024-04-26T02:34:31Z) - Generative linguistic representation for spoken language identification [17.9575874225144]
本稿では,Whisperモデルからデコーダベースのネットワークを利用して言語的特徴を抽出する方法について検討する。
言語埋め込み法とLID出力の直接最適化に焦点を当てた2つの戦略を考案した。
我々は,MLS,VoxLingua107,CommonVoiceといった大規模多言語データセットを用いて,我々のアプローチをテストする実験を行った。
論文 参考訳(メタデータ) (2023-12-18T06:40:24Z) - FonMTL: Towards Multitask Learning for the Fon Language [1.9370453715137865]
本稿では,Fon言語のための自然言語処理におけるモデル機能向上のための,マルチタスク学習のための最初の爆発的アプローチを提案する。
我々は2つの言語モデルヘッドをエンコーダとして利用して入力の共有表現を構築し,各タスクに対して線形層ブロックを用いて分類する。
Fon の NER および POS タスクの結果は,複数言語で事前訓練された言語モデルに対して,単一タスクで微調整された言語モデルと比較して,競争力(あるいはより優れた)性能を示す。
論文 参考訳(メタデータ) (2023-08-28T03:26:21Z) - Efficient Spoken Language Recognition via Multilabel Classification [53.662747523872305]
我々のモデルは,現在の最先端手法よりも桁違いに小さく,高速でありながら,競争力のある結果が得られることを示す。
我々のマルチラベル戦略は、マルチクラス分類よりも非ターゲット言語の方が堅牢である。
論文 参考訳(メタデータ) (2023-06-02T23:04:19Z) - Effective Cross-Task Transfer Learning for Explainable Natural Language
Inference with T5 [50.574918785575655]
2つのタスクのパフォーマンス向上という文脈において、逐次微調整とマルチタスク学習のモデルを比較した。
この結果から,2つのタスクのうち,第1のタスクにおいて逐次マルチタスク学習は良好に調整できるが,第2のタスクでは性能が低下し,過度な適合に苦しむことが明らかとなった。
論文 参考訳(メタデータ) (2022-10-31T13:26:08Z) - Visualizing the Relationship Between Encoded Linguistic Information and
Task Performance [53.223789395577796]
本稿では,Pareto Optimalityの観点から,符号化言語情報とタスクパフォーマンスの動的関係について検討する。
我々は、機械翻訳と言語モデリングという2つの一般的なNLPタスクの実験を行い、様々な言語情報とタスクパフォーマンスの関係について検討する。
実験結果から,NLPタスクには構文情報が有用であるのに対して,より構文情報の符号化が必ずしも優れたパフォーマンスをもたらすとは限らないことが示唆された。
論文 参考訳(メタデータ) (2022-03-29T19:03:10Z) - Reinforced Iterative Knowledge Distillation for Cross-Lingual Named
Entity Recognition [54.92161571089808]
言語間NERは、知識をリッチリソース言語から低リソース言語に転送する。
既存の言語間NERメソッドは、ターゲット言語でリッチなラベル付けされていないデータをうまく利用しない。
半教師付き学習と強化学習のアイデアに基づく新しいアプローチを開発する。
論文 参考訳(メタデータ) (2021-06-01T05:46:22Z) - Be More with Less: Hypergraph Attention Networks for Inductive Text
Classification [56.98218530073927]
グラフニューラルネットワーク(GNN)は、研究コミュニティで注目され、この標準タスクで有望な結果を実証している。
成功にもかかわらず、それらのパフォーマンスは、単語間の高次相互作用をキャプチャできないため、実際は大部分が危険に晒される可能性がある。
本稿では,テキスト表現学習において,少ない計算量でより表現力の高いハイパーグラフアテンションネットワーク(HyperGAT)を提案する。
論文 参考訳(メタデータ) (2020-11-01T00:21:59Z) - On the Effects of Using word2vec Representations in Neural Networks for
Dialogue Act Recognition [0.6767885381740952]
文中の単語列をキャプチャする再帰モデルを探索するディープニューラルネットワークを提案する。
このモデルを英語、フランス語、チェコ語という3つの言語で検証する。
論文 参考訳(メタデータ) (2020-10-22T07:21:17Z) - Neurals Networks for Projecting Named Entities from English to Ewondo [6.058868817939519]
本稿では、リッチ言語から低リソース言語へ名前付きエンティティを投影するための新しい単語分布表現を提案する。
提案手法は良好な結果を得たが, 使用したニューラルネットワークのサイズが大きすぎた。
本稿では,より小さなニューラルネットワークを用いて,同じ結果が得られることを示す。
論文 参考訳(メタデータ) (2020-03-29T22:05:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。