論文の概要: Assessing Neural Referential Form Selectors on a Realistic Multilingual
Dataset
- arxiv url: http://arxiv.org/abs/2210.04828v2
- Date: Tue, 11 Oct 2022 18:44:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 11:47:39.770285
- Title: Assessing Neural Referential Form Selectors on a Realistic Multilingual
Dataset
- Title(参考訳): リアリスティックな多言語データセット上でのニューラルリファレンシャルフォームセレクタの評価
- Authors: Guanyi Chen, Fahime Same, Kees van Deemter
- Abstract要約: OntoNotesコーパスに基づくデータセットを構築し、英語と中国語の両方で広く使われている参照表現(RE)を含む。
そこで我々は、RFS(Neural Referential Form Selection)モデルを構築し、それらをデータセット上で評価し、探索実験を行う。
- 参考スコア(独自算出の注目度): 6.651864489482537
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Previous work on Neural Referring Expression Generation (REG) all uses
WebNLG, an English dataset that has been shown to reflect a very limited range
of referring expression (RE) use. To tackle this issue, we build a dataset
based on the OntoNotes corpus that contains a broader range of RE use in both
English and Chinese (a language that uses zero pronouns). We build neural
Referential Form Selection (RFS) models accordingly, assess them on the dataset
and conduct probing experiments. The experiments suggest that, compared to
WebNLG, OntoNotes is better for assessing REG/RFS models. We compare English
and Chinese RFS and confirm that, in line with linguistic theories, Chinese RFS
depends more on discourse context than English.
- Abstract(参考訳): ニューラル参照式生成(REG)に関するこれまでの研究はすべて、非常に限られた参照式(RE)使用域を反映した英データセットであるWebNLGを使用している。
この問題に対処するため、オントノートコーパスに基づくデータセットを構築し、英語と中国語(ゼロ代名詞を使用する言語)の両方で広範囲のREが使用されるようにした。
そこで我々は、RFS(Neural Referential Form Selection)モデルを構築し、それらをデータセット上で評価し、探索実験を行う。
実験の結果, OntoNotes は WebNLG と比較して REG/RFS モデルの評価に優れていた。
我々は、英語と中国語の RFS を比較し、言語理論に従って、中国語の RFS が英語よりも会話の文脈に依存していることを確認する。
関連論文リスト
- Multilingual Diversity Improves Vision-Language Representations [66.41030381363244]
このデータセットの事前トレーニングは、ImageNet上で英語のみまたは英語が支配するデータセットを使用してパフォーマンスが向上する。
GeoDEのような地理的に多様なタスクでは、アフリカから得られる最大の利益とともに、すべての地域における改善も観察します。
論文 参考訳(メタデータ) (2024-05-27T08:08:51Z) - HistRED: A Historical Document-Level Relation Extraction Dataset [32.96963890713529]
HistREDは、漢漢の古文書集「Yeonhaengnok」から造られたものである。
HistREDは、韓国語と漢語でREを実行できるようなバイリンガルアノテーションを提供している。
本稿では,韓国語と漢語の両方の文脈を利用してエンティティ間の関係を予測するバイリンガルREモデルを提案する。
論文 参考訳(メタデータ) (2023-07-10T00:24:27Z) - XRICL: Cross-lingual Retrieval-Augmented In-Context Learning for
Cross-lingual Text-to-SQL Semantic Parsing [70.40401197026925]
大規模言語モデルを用いたインコンテキスト学習は、最近セマンティック解析タスクの驚くべき結果を示している。
この研究は、あるクエリに対して関連する英語の例を検索する学習を行うXRICLフレームワークを導入している。
また、大規模言語モデルの翻訳プロセスを容易にするために、対象言語に対するグローバルな翻訳例も含んでいる。
論文 参考訳(メタデータ) (2022-10-25T01:33:49Z) - Improving Retrieval Augmented Neural Machine Translation by Controlling
Source and Fuzzy-Match Interactions [15.845071122977158]
本稿では,トップkのドメイン内ファジィマッチングが元文に現れるRAT(Retrieval Augmented Translation)のアイデアに基づいて構築する。
本稿では,ソース文とトップkファジィなターゲット言語マッチング間のインタラクションを制御する新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-10-10T23:33:15Z) - DiS-ReX: A Multilingual Dataset for Distantly Supervised Relation
Extraction [15.649929244635269]
これらの問題を緩和する新しいデータセットであるDiS-ReXを提案する。
私たちのデータセットには150万以上の文があり、36の関連クラスを持つ4つの言語にまたがっている。
また,mBERTを用いて文を符号化し,多言語DS-REのベンチマーク結果を提供する。
論文 参考訳(メタデータ) (2021-04-17T22:44:38Z) - GATE: Graph Attention Transformer Encoder for Cross-lingual Relation and
Event Extraction [107.8262586956778]
言語に依存しない文表現を学習するために、普遍的な依存解析を伴うグラフ畳み込みネットワーク(GCN)を導入する。
GCNは、長い範囲の依存関係を持つ単語をモデル化するのに苦労する。
そこで本研究では,構文的距離の異なる単語間の依存関係を学習するための自己認識機構を提案する。
論文 参考訳(メタデータ) (2020-10-06T20:30:35Z) - Learning from Context or Names? An Empirical Study on Neural Relation
Extraction [112.06614505580501]
テキストにおける2つの主要な情報ソースの効果について検討する:テキストコンテキストとエンティティ参照(名前)
本稿では,関係抽出のための実体型コントラスト事前学習フレームワーク(RE)を提案する。
我々のフレームワークは、異なるREシナリオにおけるニューラルモデルの有効性と堅牢性を改善することができる。
論文 参考訳(メタデータ) (2020-10-05T11:21:59Z) - NABU $\mathrm{-}$ Multilingual Graph-based Neural RDF Verbalizer [3.419992814908564]
NABUは、RDFデータをドイツ語、ロシア語、英語に動詞化するグラフベースのニューラルモデルである。
以上の結果から,NABUは66.21BLEUで英語に対する最先端のアプローチよりも優れていた。
論文 参考訳(メタデータ) (2020-09-16T14:59:06Z) - TaBERT: Pretraining for Joint Understanding of Textual and Tabular Data [113.29476656550342]
本研究では,NL文と表の表現を共同で学習する事前学習型LMであるTaBERTを提案する。
TaBERTは、600万のテーブルとその英語コンテキストからなる大規模なコーパスで訓練されている。
モデルの実装はhttp://fburl.com/TaBERT.comで公開される。
論文 参考訳(メタデータ) (2020-05-17T17:26:40Z) - Parameter Space Factorization for Zero-Shot Learning across Tasks and
Languages [112.65994041398481]
本稿では,ニューラルパラメータの空間に対するベイズ生成モデルを提案する。
タスク言語の組み合わせから得られたデータに基づいて、そのような潜伏変数よりも後部を推測する。
我々のモデルは、最先端のゼロショットの言語間転送手法よりも、同等か良い結果が得られる。
論文 参考訳(メタデータ) (2020-01-30T16:58:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。