論文の概要: Sentence-to-Label Generation Framework for Multi-task Learning of
Japanese Sentence Classification and Named Entity Recognition
- arxiv url: http://arxiv.org/abs/2306.15978v1
- Date: Wed, 28 Jun 2023 07:29:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-29 15:14:36.723275
- Title: Sentence-to-Label Generation Framework for Multi-task Learning of
Japanese Sentence Classification and Named Entity Recognition
- Title(参考訳): 日本語文分類と名前付きエンティティ認識のマルチタスク学習のための文間ラベル生成フレームワーク
- Authors: Chengguang Gan, Qinghao Zhang and Tatsunori Mori
- Abstract要約: 文分類(SC)と名前付きエンティティ認識(NER)のためのSLGフレームワークを開発する。
フォーマット変換器を用いて、入力形式を統一し、生成モデルを用いてSCラベル、NERラベル、および関連するテキストセグメントを生成する。
その結果、SCの精度はSCNMで1.13ポイント、NERで1.06ポイント向上し、CMはフォーマットの精度を63.61から100に引き上げた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Information extraction(IE) is a crucial subfield within natural language
processing. In this study, we introduce a Sentence Classification and Named
Entity Recognition Multi-task (SCNM) approach that combines Sentence
Classification (SC) and Named Entity Recognition (NER). We develop a
Sentence-to-Label Generation (SLG) framework for SCNM and construct a Wikipedia
dataset containing both SC and NER. Using a format converter, we unify input
formats and employ a generative model to generate SC-labels, NER-labels, and
associated text segments. We propose a Constraint Mechanism (CM) to improve
generated format accuracy. Our results show SC accuracy increased by 1.13
points and NER by 1.06 points in SCNM compared to standalone tasks, with CM
raising format accuracy from 63.61 to 100. The findings indicate mutual
reinforcement effects between SC and NER, and integration enhances both tasks'
performance.
- Abstract(参考訳): 情報抽出(IE)は自然言語処理において重要なサブフィールドである。
本研究では,Sentence Classification (SC) と Named Entity Recognition (NER) を組み合わせた,Sentence Classification and Named Entity Recognition Multi-task (SCNM) アプローチを提案する。
我々はSCNMのためのSLGフレームワークを開発し、SCとNERの両方を含むウィキペディアデータセットを構築する。
フォーマット変換器を用いて入力形式を統一し,生成モデルを用いてscラベル,nerラベル,関連するテキストセグメントを生成する。
生成フォーマットの精度を向上させるための制約機構(cm)を提案する。
その結果,SCの精度はSCNMでは1.13ポイント,NERでは1.06ポイント向上し,CMでは63.61から100に向上した。
その結果,scとnerの相互強化効果が示され,統合により両タスクの性能が向上した。
関連論文リスト
- Multi-label Sequential Sentence Classification via Large Language Model [4.012351415340318]
本稿では,LLM-SSCを提案する。LLM-SSCは大規模言語モデル(LLM)をベースとした,シングルラベルとマルチラベルのSSCタスクのためのフレームワークである。
従来の中小言語モデルを用いたアプローチとは異なり、提案フレームワークはLSMを用いて設計したプロンプトを通じてSSCラベルを生成する。
また、自動重み付け方式によるマルチラベルのコントラスト学習損失も提示し、マルチラベル分類タスクを可能にする。
論文 参考訳(メタデータ) (2024-11-23T18:27:35Z) - In-Context Learning for Few-Shot Nested Named Entity Recognition [53.55310639969833]
数発のネストネストNERの設定に有効で革新的なICLフレームワークを導入する。
我々は、新しい実演選択機構であるEnDe retrieverを考案し、ICLプロンプトを改善する。
EnDe検索では,意味的類似性,境界類似性,ラベル類似性という3種類の表現学習を行うために,コントラスト学習を用いる。
論文 参考訳(メタデータ) (2024-02-02T06:57:53Z) - Using Large Language Model for End-to-End Chinese ASR and NER [35.876792804001646]
本稿では,クロスアテンションによる音声特徴を組み込んだエンコーダ・デコーダアーキテクチャを提案する。
本稿では,中国語の自動音声認識(ASR)と名前認識(NER)の2つの手法を比較した。
実験の結果,エンコーダ-デコーダアーキテクチャは短いコンテキストでデコーダのみのアーキテクチャよりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-01-21T03:15:05Z) - Named Entity Recognition via Machine Reading Comprehension: A Multi-Task
Learning Approach [50.12455129619845]
Named Entity Recognition (NER) は、テキスト内のエンティティの参照を事前に定義された型に抽出し、分類することを目的としている。
我々は,MRCベースのNERを改善するために,エンティティタイプ間のラベル依存性をマルチタスク学習フレームワークに組み込むことを提案する。
論文 参考訳(メタデータ) (2023-09-20T03:15:05Z) - mCL-NER: Cross-Lingual Named Entity Recognition via Multi-view
Contrastive Learning [54.523172171533645]
CrossNERは多言語コーパスの不足により不均一な性能から生じる課題に直面している。
言語横断的名前付きエンティティ認識(mCL-NER)のためのマルチビューコントラスト学習を提案する。
40言語にまたがるXTREMEベンチマーク実験では、従来のデータ駆動型およびモデルベースアプローチよりもmCL-NERの方が優れていることを示した。
論文 参考訳(メタデータ) (2023-08-17T16:02:29Z) - Mutual Reinforcement Effects in Japanese Sentence Classification and
Named Entity Recognition Tasks [0.0]
文分類(SC)と名前付きエンティティ認識(NER)のためのSLGフレームワークを開発する。
フォーマット変換器を用いて、入力形式を統一し、生成モデルを用いてSCラベル、NERラベル、および関連するテキストセグメントを生成する。
その結果、SCの精度はSCNMで1.13ポイント、NERで1.06ポイント向上し、CMはフォーマットの精度を63.61から100に引き上げた。
論文 参考訳(メタデータ) (2023-07-18T14:30:36Z) - Unified model for code-switching speech recognition and language
identification based on a concatenated tokenizer [17.700515986659063]
Code-Switching (CS) Multilingual Automatic Speech Recognition (ASR) モデルは会話中に2つ以上の交互言語を含む音声を転写することができる。
本稿では,純粋にモノリンガルなデータソースからASRデータセットをコードスイッチングする新しい手法を提案する。
新たな Concatenated Tokenizer により、ASR モデルは既存のモノリンガルトークンを再利用しながら、出力されたテキストトークンごとに言語IDを生成することができる。
論文 参考訳(メタデータ) (2023-06-14T21:24:11Z) - CROP: Zero-shot Cross-lingual Named Entity Recognition with Multilingual
Labeled Sequence Translation [113.99145386490639]
言語間NERは、整列した言語間表現や機械翻訳結果を通じて、言語間で知識を伝達することができる。
ゼロショット言語間NERを実現するために,クロスランガル・エンティティ・プロジェクション・フレームワーク(CROP)を提案する。
多言語ラベル付きシーケンス翻訳モデルを用いて、タグ付けされたシーケンスをターゲット言語に投影し、ターゲットの原文にラベル付けする。
論文 参考訳(メタデータ) (2022-10-13T13:32:36Z) - Optimizing Bi-Encoder for Named Entity Recognition via Contrastive
Learning [80.36076044023581]
名前付きエンティティ認識(NER)のための効率的なバイエンコーダフレームワークを提案する。
我々はNERを、エンティティ参照のベクトル表現とその型との類似性を最大化する計量学習問題とみなす。
NERのこのバイエンコーダの定式化における大きな課題は、エンティティの言及から非エンゲージスを分離することにある。
論文 参考訳(メタデータ) (2022-08-30T23:19:04Z) - Nested Named Entity Recognition as Holistic Structure Parsing [92.8397338250383]
本研究は,文中の全入れ子NEを全体構造としてモデル化し,全体構造解析アルゴリズムを提案する。
実験により、我々のモデルは、最先端にアプローチしたり、あるいは達成したりするような、広く使われているベンチマークで有望な結果が得られることが示された。
論文 参考訳(メタデータ) (2022-04-17T12:48:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。