論文の概要: Multi-Task Learning of Query Intent and Named Entities using Transfer
Learning
- arxiv url: http://arxiv.org/abs/2105.03316v1
- Date: Wed, 28 Apr 2021 23:59:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 09:12:37.565835
- Title: Multi-Task Learning of Query Intent and Named Entities using Transfer
Learning
- Title(参考訳): 転送学習を用いたクエリインテントと名前付きエンティティのマルチタスク学習
- Authors: Shalin Shah, Ryan Siskind
- Abstract要約: BERTは、NERのようなシーケンスラベリングタスクにおける最新の精度を示しています。
検索クエリでターゲットストアの位置をラベル付けするタスクを検討します。
我々は,情報伝達にグローバルと呼ぶマルチタスク学習を行うことで,この課題を解明する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Named entity recognition (NER) has been studied extensively and the earlier
algorithms were based on sequence labeling like Hidden Markov Models (HMM) and
conditional random fields (CRF). These were followed by neural network based
deep learning models. Recently, BERT has shown new state of the art accuracy in
sequence labeling tasks like NER. In this short article, we study various
approaches to task specific NER. Task specific NER has two components -
identifying the intent of a piece of text (like search queries), and then
labeling the query with task specific named entities. For example, we consider
the task of labeling Target store locations in a search query (which could be
entered in a search box or spoken in a device like Alexa or Google Home). Store
locations are highly ambiguous and sometimes it is difficult to differentiate
between say a location and a non-location. For example, "pickup my order at
orange store" has "orange" as the store location, while "buy orange at target"
has "orange" as a fruit. We explore this difficulty by doing multi-task
learning which we call global to local transfer of information. We jointly
learn the query intent (i.e. store lookup) and the named entities by using
multiple loss functions in our BERT based model and find interesting results.
- Abstract(参考訳): 名前付き実体認識(NER)は広く研究されており、初期のアルゴリズムは隠れマルコフモデル(HMM)や条件付きランダムフィールド(CRF)のようなシーケンスラベルに基づいていた。
次にニューラルネットワークベースのディープラーニングモデルが続いた。
最近、BERTは、NERのようなシーケンシャルラベリングタスクにおいて、新しい技術精度を示している。
本稿では,タスク特化NERに対する様々なアプローチについて考察する。
task specific nerは、テキストのインテント(検索クエリなど)を識別する2つのコンポーネントを持ち、タスク固有の名前付きエンティティでクエリをラベル付けする。
例えば、検索クエリ(検索ボックスに入力したり、AlexaやGoogle Homeのようなデバイスで話すことができる)でターゲットストアのロケーションをラベル付けするタスクについて検討する。
店舗の立地は非常に曖昧であり、ある場所と非場所を区別することが難しい場合もある。
例えば、"pickup my order at orange store" は店の場所として "orange" を持ち、"buy orange at target" は果物として "orange" を持つ。
我々は,情報伝達にグローバルと呼ぶマルチタスク学習を行うことで,この課題を解明する。
クエリインテント(すなわちクエリインテント)を共同で学習します。
BERTベースのモデルで複数の損失関数を使用して名前付きエンティティを検索し、興味深い結果を見つけます。
関連論文リスト
- DAMO-NLP at SemEval-2023 Task 2: A Unified Retrieval-augmented System
for Multilingual Named Entity Recognition [94.90258603217008]
MultiCoNER RNum2共有タスクは、細粒度でノイズの多いシナリオにおいて、多言語の名前付きエンティティ認識(NER)に取り組むことを目的としている。
MultiCoNER RNum1の以前のトップシステムは、ナレッジベースまたはガゼッタを組み込んでいる。
細粒度多言語NERのための統一検索拡張システム(U-RaNER)を提案する。
論文 参考訳(メタデータ) (2023-05-05T16:59:26Z) - Disambiguation of Company names via Deep Recurrent Networks [101.90357454833845]
企業名文字列の埋め込みである教師付き学習を通じて,Siamese LSTM Network を抽出する手法を提案する。
私たちは、ラベル付けされるサンプルを優先するActive Learningアプローチが、より効率的な全体的な学習パイプラインをもたらす方法を分析します。
論文 参考訳(メタデータ) (2023-03-07T15:07:57Z) - Dynamic Named Entity Recognition [5.9401550252715865]
動的名前付きエンティティ認識(DNER)という新しいタスクを紹介します。
DNERは、コンテキストを利用してエンティティを抽出するアルゴリズムの能力を評価するためのフレームワークを提供する。
本稿では,本課題に関連する課題と研究軸を反映したベースラインモデルと実験結果について述べる。
論文 参考訳(メタデータ) (2023-02-16T15:50:02Z) - Query-Guided Networks for Few-shot Fine-grained Classification and
Person Search [93.80556485668731]
微粒な分類や人物検索は、個別のタスクとして現れ、文学はそれらを別々に扱ってきた。
両タスクに適用可能な新しい統合クエリガイドネットワーク(QGN)を提案する。
QGNは、最近の数ショットのきめ細かいデータセットを改善し、CUB上の他のテクニックを大きなマージンで上回っている。
論文 参考訳(メタデータ) (2022-09-21T10:25:32Z) - Parallel Instance Query Network for Named Entity Recognition [73.30174490672647]
名前付きエンティティ認識(NER)は自然言語処理の基本課題である。
最近の研究は、名前付きエンティティ認識を読み取り理解タスクとして扱い、エンティティを抽出するためにタイプ固有のクエリを手動で構築している。
本稿では,グローバルかつ学習可能なインスタンスクエリを並列に抽出するParallel Instance Query Network (PIQN)を提案する。
論文 参考訳(メタデータ) (2022-03-20T13:01:25Z) - Salient Object Ranking with Position-Preserved Attention [44.94722064885407]
本研究では,検出対象のランク付け順序を視覚的サリエンシに応じて割り当てるSOR(Salient Object Ranking)タスクについて検討する。
本稿では,SORタスクの最初のエンドツーエンドフレームワークを提案し,マルチタスク学習方式で解決する。
また、SORブランチ用に調整されたPPAモジュールも導入する。
論文 参考訳(メタデータ) (2021-06-09T13:00:05Z) - A Sequence-to-Set Network for Nested Named Entity Recognition [38.05786148160635]
ネストNERのための新しいシーケンス・ツー・セットニューラルネットワークを提案する。
我々は、非自己回帰デコーダを使用して、1回のパスで最終的なエンティティセットを予測する。
実験により, ネストした3つのNERコーパスに対して, 提案モデルが最先端となることを示す。
論文 参考訳(メタデータ) (2021-05-19T03:10:04Z) - Deep Indexed Active Learning for Matching Heterogeneous Entity
Representations [20.15233789156307]
本稿では,ブロッキングのリコールとブロックペアのマッチング精度を最大化するために,組込みを共同で学習するスケーラブルなアクティブラーニング手法であるdiardを提案する。
5つのベンチマークデータセットと多言語レコードマッチングデータセットの実験は、精度、リコール、実行時間の観点から、我々のアプローチの有効性を示している。
論文 参考訳(メタデータ) (2021-04-08T18:00:19Z) - R$^2$-Net: Relation of Relation Learning Network for Sentence Semantic
Matching [58.72111690643359]
文意味マッチングのための関係学習ネットワーク(R2-Net)を提案する。
最初にBERTを使用して、グローバルな視点から入力文をエンコードします。
次に、cnnベースのエンコーダは、ローカルな視点からキーワードやフレーズ情報をキャプチャするように設計されている。
関係情報抽出にラベルを十分に活用するために,関係分類タスクの自己教師付き関係性を導入する。
論文 参考訳(メタデータ) (2020-12-16T13:11:30Z) - Query Understanding via Intent Description Generation [75.64800976586771]
問合せ理解のためのQ2ID(Query-to-Intent-Description)タスクを提案する。
クエリとその記述を利用してドキュメントの関連性を計算する既存のランキングタスクとは異なり、Q2IDは自然言語のインテント記述を生成するための逆タスクである。
Q2IDタスクにおける複数の最先端生成モデルとの比較により,本モデルの有効性を実証する。
論文 参考訳(メタデータ) (2020-08-25T08:56:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。