論文の概要: A Chinese Corpus for Fine-grained Entity Typing
- arxiv url: http://arxiv.org/abs/2004.08825v1
- Date: Sun, 19 Apr 2020 11:53:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 00:13:36.958262
- Title: A Chinese Corpus for Fine-grained Entity Typing
- Title(参考訳): 細粒度エンティティタイピングのための中国語コーパス
- Authors: Chin Lee, Hongliang Dai, Yangqiu Song, Xin Li
- Abstract要約: クラウドソーシングによって手動でラベル付けされた4,800件の言及を含む,中国の微粒なエンティティタイピングのためのコーパスを紹介した。
より可能なシナリオでデータセットを有用にするために、すべてのきめ細かい型を10の一般的な型に分類する。
また,中国語の微粒なエンティティタイピングを言語間移動学習によって改善する可能性も示した。
- 参考スコア(独自算出の注目度): 34.93317177668996
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fine-grained entity typing is a challenging task with wide applications.
However, most existing datasets for this task are in English. In this paper, we
introduce a corpus for Chinese fine-grained entity typing that contains 4,800
mentions manually labeled through crowdsourcing. Each mention is annotated with
free-form entity types. To make our dataset useful in more possible scenarios,
we also categorize all the fine-grained types into 10 general types. Finally,
we conduct experiments with some neural models whose structures are typical in
fine-grained entity typing and show how well they perform on our dataset. We
also show the possibility of improving Chinese fine-grained entity typing
through cross-lingual transfer learning.
- Abstract(参考訳): きめ細かいエンティティタイピングは、幅広いアプリケーションにおいて難しい課題である。
しかし、このタスクのための既存のデータセットのほとんどは英語である。
本稿では,クラウドソーシングによって手作業でラベル付けされた4,800項目を含む,中国の細粒度エンティティタイピング用コーパスを提案する。
各参照は、フリーフォームのエンティティタイプでアノテートされる。
より可能なシナリオでデータセットを有用にするために、すべてのきめ細かい型を10の一般的な型に分類する。
最後に,細粒度のエンティティ型付けに典型的な構造を持ついくつかのニューラルモデルを用いて実験を行い,データセット上での性能を示す。
また,中国語の微粒なエンティティタイピングを言語間移動学習によって改善する可能性も示した。
関連論文リスト
- Universal Cross-Lingual Text Classification [0.3958317527488535]
本研究は,言語横断テキスト分類における新たな視点を提案する。
我々のアプローチは、訓練中に異なる言語からの教師付きデータをブレンドして普遍的なモデルを作成することである。
主な目標は、ラベルと言語カバレッジを強化することであり、様々な言語のラベルの結合を表すラベルセットを目指している。
論文 参考訳(メタデータ) (2024-06-16T17:58:29Z) - Seed-Guided Fine-Grained Entity Typing in Science and Engineering
Domains [51.02035914828596]
科学・工学分野において,シード誘導型細粒度エンティティタイピングの課題について検討する。
まず、ラベルのないコーパスから各タイプのエンティティを抽出し、弱い監視力を高めるSETypeを提案する。
そして、リッチなエンティティをラベルなしのテキストにマッチさせ、擬似ラベル付きサンプルを取得し、見知らぬ型と見えない型の両方に推論できるテキストエンテリメントモデルを訓練する。
論文 参考訳(メタデータ) (2024-01-23T22:36:03Z) - Leveraging Contextual Information for Effective Entity Salience Detection [21.30389576465761]
クロスエンコーダアーキテクチャを用いた中規模言語モデルの微調整により,機能工学的アプローチよりも優れた性能が得られることを示す。
また、命令調整言語モデルのゼロショットプロンプトは、タスクの特異性と複雑さを示す劣った結果をもたらすことを示す。
論文 参考訳(メタデータ) (2023-09-14T19:04:40Z) - XRICL: Cross-lingual Retrieval-Augmented In-Context Learning for
Cross-lingual Text-to-SQL Semantic Parsing [70.40401197026925]
大規模言語モデルを用いたインコンテキスト学習は、最近セマンティック解析タスクの驚くべき結果を示している。
この研究は、あるクエリに対して関連する英語の例を検索する学習を行うXRICLフレームワークを導入している。
また、大規模言語モデルの翻訳プロセスを容易にするために、対象言語に対するグローバルな翻訳例も含んでいる。
論文 参考訳(メタデータ) (2022-10-25T01:33:49Z) - Generative Entity Typing with Curriculum Learning [18.43562065432877]
本稿では,新しい生成エンティティタイピング(GET)パラダイムを提案する。
エンティティが言及したテキストが与えられた場合、エンティティがテキストで果たす役割の複数の型は、事前訓練された言語モデルで生成される。
我々の実験は、最先端エンティティ型付けモデルよりもGETモデルの方が優れていることを正当化します。
論文 参考訳(メタデータ) (2022-10-06T13:32:50Z) - Neural Label Search for Zero-Shot Multi-Lingual Extractive Summarization [80.94424037751243]
ゼロショット多言語抽出テキスト要約では、通常、モデルは英語のデータセットに基づいて訓練され、他の言語の要約データセットに適用される。
本研究では,NLS(Neural Label Search for Summarization)を提案する。
我々はMLSUMとWikiLinguaのデータセット上で多言語ゼロショット要約実験を行い、人間と自動両方の評価を用いて最先端の結果を得る。
論文 参考訳(メタデータ) (2022-04-28T14:02:16Z) - Models and Datasets for Cross-Lingual Summarisation [78.56238251185214]
対象言語における多文要約に関連付けられたソース言語において,長い文書を含む言語間要約コーパスを提案する。
コーパスは、チェコ語、英語、フランス語、ドイツ語の4つの言語について、12の言語対と指示をカバーしている。
言語対応のウィキペディアのタイトルから、主節と記事の本体を組み合わせることで、ウィキペディアから言語横断的な文書要約インスタンスを導出する。
論文 参考訳(メタデータ) (2022-02-19T11:55:40Z) - Cross-Lingual Fine-Grained Entity Typing [26.973783464706447]
本稿では,100以上の言語を処理可能な,言語間を包含したエンティティタイピングモデルを提案する。
このモデルが学習中に見つからない言語やエンティティに一般化する能力について分析する。
論文 参考訳(メタデータ) (2021-10-15T03:22:30Z) - Interpretable Entity Representations through Large-Scale Typing [61.4277527871572]
本稿では,人間の読みやすいエンティティ表現を作成し,箱から高パフォーマンスを実現する手法を提案する。
我々の表現は、微粒な実体型に対する後続確率に対応するベクトルである。
特定のドメインに対して,学習に基づく方法で,型セットのサイズを縮小できることを示す。
論文 参考訳(メタデータ) (2020-04-30T23:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。