論文の概要: On the Multi-Property Extraction and Beyond
- arxiv url: http://arxiv.org/abs/2006.08281v1
- Date: Mon, 15 Jun 2020 11:07:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 04:34:31.001577
- Title: On the Multi-Property Extraction and Beyond
- Title(参考訳): 多機能抽出と超越について
- Authors: Tomasz Dwojak and Micha{\l} Pietruszka and {\L}ukasz Borchmann and
Filip Grali\'nski and Jakub Ch{\l}\k{e}dowski
- Abstract要約: WikiReading情報抽出と機械読解データセットを用いたDual-source Transformerアーキテクチャについて検討する。
WikiReading Recycled - 新しく開発されたパブリックデータセットで、複数プロパティ抽出のタスクをサポートする。
- 参考スコア(独自算出の注目度): 7.670897251425096
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we investigate the Dual-source Transformer architecture on the
WikiReading information extraction and machine reading comprehension dataset.
The proposed model outperforms the current state-of-the-art by a large margin.
Next, we introduce WikiReading Recycled - a newly developed public dataset,
supporting the task of multiple property extraction. It keeps the spirit of the
original WikiReading but does not inherit the identified disadvantages of its
predecessor.
- Abstract(参考訳): 本稿では,WikiReading情報抽出と機械読解データセットにおけるDual-source Transformerアーキテクチャについて検討する。
提案モデルでは,現状の最先端を大きなマージンで上回っている。
次に、新しく開発されたパブリックデータセットであるWikiReading Recycledを紹介し、複数のプロパティ抽出のタスクをサポートする。
オリジナルのWikiReadingの精神を保っているが、前者の不利な点を継承していない。
関連論文リスト
- Learning to Extract Structured Entities Using Language Models [52.281701191329]
機械学習の最近の進歩は、情報抽出の分野に大きな影響を与えている。
タスクをエンティティ中心にすることで、さまざまなメトリクスの使用を可能にします。
我々は、Structured Entity extractを導入し、Adroximate Entity Set OverlaPメトリックを提案し、この分野にコントリビュートします。
論文 参考訳(メタデータ) (2024-02-06T22:15:09Z) - A Computational Analysis of Vagueness in Revisions of Instructional
Texts [2.2577978123177536]
修正前後の命令のペアワイズ版を抽出する。
データ中の2種類の命令を区別するニューラルネットワークの能力について検討する。
論文 参考訳(メタデータ) (2023-09-21T14:26:04Z) - Interactive Distillation of Large Single-Topic Corpora of Scientific
Papers [1.2954493726326113]
より堅牢だが時間を要するアプローチは、主題の専門家が文書を手書きするデータセットを構成的に構築することである。
ここでは,学術文献のターゲットデータセットを構築的に生成するための,機械学習に基づく新しいツールを紹介する。
論文 参考訳(メタデータ) (2023-09-19T17:18:36Z) - Video Infringement Detection via Feature Disentanglement and Mutual
Information Maximization [51.206398602941405]
本稿では,元の高次元特徴を複数のサブ機能に分解することを提案する。
歪んだサブ機能の上に,サブ機能を強化する補助的特徴を学習する。
提案手法は,大規模SVDデータセット上で90.1%のTOP-100 mAPを達成し,VCSLベンチマークデータセット上で新たな最先端を設定できる。
論文 参考訳(メタデータ) (2023-09-13T10:53:12Z) - FRUIT: Faithfully Reflecting Updated Information in Text [106.40177769765512]
FRUIT(FruIT)で更新情報を反映した新しい生成タスクについて紹介する。
我々の分析は、記事の更新が可能なモデルを開発するには、ニューラルジェネレーションモデルに新しい能力が必要であることを示している。
論文 参考訳(メタデータ) (2021-12-16T05:21:24Z) - DESCGEN: A Distantly Supervised Datasetfor Generating Abstractive Entity
Descriptions [41.80938919728834]
複数のドキュメントにまたがる言及を考えると、目的はエンティティの要約記述を生成することである。
DESCGENはWikipediaとFandomの37Kのエンティティ記述で構成されており、それぞれに平均9つの証拠文書が組み合わされている。
結果として得られる要約は、既存のデータセットよりも抽象的で、新しいエンティティや新興エンティティを記述する上での課題に対して、より優れたプロキシを提供する。
論文 参考訳(メタデータ) (2021-06-09T20:10:48Z) - WikiAsp: A Dataset for Multi-domain Aspect-based Summarization [69.13865812754058]
マルチドメインアスペクトベースの要約のための大規模データセットであるWikiAspを提案する。
具体的には、アスペクトアノテーションのプロキシとして、各記事のセクションタイトルとバウンダリを使用して、20の異なるドメインからウィキペディア記事を使用してデータセットを構築します。
その結果,既存の要約モデルがこの設定で直面する重要な課題,例えば引用されたソースの適切な代名詞処理,時間に敏感なイベントの一貫した説明などが浮き彫りになった。
論文 参考訳(メタデータ) (2020-11-16T10:02:52Z) - From Dataset Recycling to Multi-Property Extraction and Beyond [7.670897251425096]
本稿では,WikiReading Information extractとMachine Readingのデータセット上で,様々なトランスフォーマーアーキテクチャについて検討する。
提案したデュアルソースモデルは,現在の最先端技術よりも大きなマージンで優れている。
WikiReading Recycled - 新たに開発された公開データセットと複数プロパティ抽出の課題を紹介する。
論文 参考訳(メタデータ) (2020-11-06T08:22:12Z) - SupMMD: A Sentence Importance Model for Extractive Summarization using
Maximum Mean Discrepancy [92.5683788430012]
SupMMDは、カーネルの2サンプルテストと最大の相違点に基づく、ジェネリックおよび更新の要約のための新しいテクニックである。
DUC-2004 および TAC-2009 データセット上での現在の技術状況を満たしたり超えたりすることで,SupMMD の総合的および更新的要約タスクにおける有効性を示す。
論文 参考訳(メタデータ) (2020-10-06T09:26:55Z) - Concept Extraction Using Pointer-Generator Networks [86.75999352383535]
本稿では、ポインタジェネレータネットワークの遠隔監視に基づく、汎用的なオープンドメインOOV指向抽出モデルを提案する。
このモデルは250Kのウィキペディアページから特別にコンパイルされた大規模な注釈付きコーパスで訓練されている。
論文 参考訳(メタデータ) (2020-08-25T22:28:14Z) - GameWikiSum: a Novel Large Multi-Document Summarization Dataset [39.38032088973816]
GameWikiSumは、マルチドキュメント要約のための新しいドメイン固有のデータセットである。
一般的に使用されるデータセットの100倍の大きさであり、ニュースよりも別の領域にある。
提案したデータセットを分析し,抽象モデルと抽出モデルの両方をトレーニング可能であることを示す。
論文 参考訳(メタデータ) (2020-02-17T09:25:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。