論文の概要: Open Information Extraction via Chunks
- arxiv url: http://arxiv.org/abs/2305.03299v1
- Date: Fri, 5 May 2023 06:03:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-08 15:07:12.795540
- Title: Open Information Extraction via Chunks
- Title(参考訳): チャンクによるオープン情報抽出
- Authors: Kuicai Dong, Aixin Sun, Jung-Jae Kim, Xiaoli Li
- Abstract要約: そこで我々は,Sentence as Chunk sequence (SaC)を提案し,チャンクを関係と引数として認識する。
ChunkOIEは複数のOIEデータセットで最先端の結果を達成しており、SaCがOIEタスクの恩恵を受けていることを示している。
- 参考スコア(独自算出の注目度): 26.1066324477346
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Open Information Extraction (OIE) aims to extract relational tuples from
open-domain sentences. Existing OIE systems split a sentence into tokens and
recognize token spans as tuple relations and arguments. We instead propose
Sentence as Chunk sequence (SaC) and recognize chunk spans as tuple relations
and arguments. We argue that SaC has better quantitative and qualitative
properties for OIE than sentence as token sequence, and evaluate four choices
of chunks (i.e., CoNLL chunks, simple phrases, NP chunks, and spans from
SpanOIE) against gold OIE tuples. Accordingly, we propose a simple BERT-based
model for sentence chunking, and propose Chunk-OIE for tuple extraction on top
of SaC. Chunk-OIE achieves state-of-the-art results on multiple OIE datasets,
showing that SaC benefits OIE task.
- Abstract(参考訳): Open Information extract (OIE)は、オープンドメイン文から関係タプルを抽出することを目的としている。
既存のoieシステムは文をトークンに分割し、トークンスパンをタプル関係と引数として認識する。
代わりに、Sentenceをチャンクシーケンス(SaC)として提案し、チャンクをタプル関係と引数として認識する。
我々は,SaCはトークンシーケンスとして文よりもOIEの量的および質的特性が優れており,金のOIEタプルに対して4つのチャンク(CoNLLチャンク,単純なフレーズ,NPチャンク,およびSpanOIEからのスパン)を選択する。
そこで我々は,文チャンキングのための単純なBERTモデルを提案し,SaC上でのタプル抽出のためのChunk-OIEを提案する。
Chunk-OIEは複数のOIEデータセットで最先端の結果を達成しており、SaCがOIEタスクの恩恵を受けていることを示している。
関連論文リスト
- Learning to Rank Utterances for Query-Focused Meeting Summarization [0.7868449549351486]
発話のランク付けのためのランダージェネレータフレームワークを提案する。
発話のランク付け学習は,クエリに関連する発話を効果的に選択する上で有効であることを示す。
QMSumの実験結果から,提案モデルはパラメータが少ない既存の多段階モデルよりも優れていた。
論文 参考訳(メタデータ) (2023-05-22T06:25:09Z) - Enriching Relation Extraction with OpenIE [70.52564277675056]
関係抽出(RE)は情報抽出(IE)のサブ分野である
本稿では,オープン情報抽出(OpenIE)の最近の取り組みがREの課題の改善にどのように役立つかを検討する。
本稿では,2つの注釈付きコーパスであるKnowledgeNetとFewRelを用いた実験により,拡張モデルの精度向上を実証した。
論文 参考訳(メタデータ) (2022-12-19T11:26:23Z) - AWTE-BERT:Attending to Wordpiece Tokenization Explicitly on BERT for
Joint Intent Classification and SlotFilling [5.684659127683238]
BERT (Bidirectional Representations from Transformers) は2つのタスクを共同で最適化する。
本稿では,ワードピーストークン化後の複数のサブトークン特徴を明示的にモデル化したBERTに基づく新しいジョイントモデルを提案する。
実験により,本モデルが意図分類精度,スロットフィリングF1,文レベルの意味的フレーム精度を大幅に向上することを確認した。
論文 参考訳(メタデータ) (2022-11-27T13:49:19Z) - Effective and Efficient Query-aware Snippet Extraction for Web Search [61.60405035952961]
本稿では,DeepQSE という名前の効率的なクエリ対応 Web ページスニペット抽出手法を提案する。
DeepQSEはまず各文に対するクエリ対応の文表現を学習し、クエリと文間の微妙な関連性をキャプチャする。
本稿では,DeepQSEの効率的なバージョンであるEfficient-DeepQSEを提案する。
論文 参考訳(メタデータ) (2022-10-17T07:46:17Z) - InfoCSE: Information-aggregated Contrastive Learning of Sentence
Embeddings [61.77760317554826]
本稿では,教師なし文の埋め込みを学習するための情報型コントラスト学習フレームワーク InfoCSE を提案する。
提案したInfoCSEを,セマンティックテキスト類似性(STS)タスクを用いて,いくつかのベンチマークデータセット上で評価する。
実験の結果, InfoCSE は BERT ベースでは2.60%, BERT 大規模では1.77% でSimCSE より優れていた。
論文 参考訳(メタデータ) (2022-10-08T15:53:19Z) - Prompt for Extraction? PAIE: Prompting Argument Interaction for Event
Argument Extraction [25.969238509764658]
文レベルと文書レベルのイベント調停抽出(EAE)に有効で効率的なモデルPAIEを提案する。
我々は文レベルと文書レベルの両方を含む3つのベンチマークで広範な実験を行った。
その結果、PAIEから有望な改善が得られた(文レベルと文書レベルの平均で1.1%、F1が3.8%)。
論文 参考訳(メタデータ) (2022-02-24T14:07:25Z) - Question-Based Salient Span Selection for More Controllable Text
Summarization [67.68208237480646]
本稿では,質問応答(QA)信号を要約モデルに組み込む手法を提案する。
提案手法は,入力文書中の有声名詞句(NP)を自動生成することで同定する。
このQAベースの信号は、2段階の要約モデルに組み込まれ、まず分類モデルを用いて入力文書中の有能なNPをマークし、その後、条件付きで要約を生成する。
論文 参考訳(メタデータ) (2021-11-15T17:36:41Z) - BERT4SO: Neural Sentence Ordering by Fine-tuning BERT [26.050527288844005]
最近の研究では、ランキング問題として、ディープニューラルネットワークを適用している。
BERTを微調整し、文章順序付けを行う新しい方法BERT4SOを提案する。
論文 参考訳(メタデータ) (2021-03-25T03:32:32Z) - BERTese: Learning to Speak to BERT [50.76152500085082]
本論文では,より良い知識抽出に向けて直接最適化されたパラフレーズクエリ"BERTese"に自動書き換える手法を提案する。
私たちのアプローチが競合するベースラインを上回ることを実証的に示し、複雑なパイプラインの必要性を回避します。
論文 参考訳(メタデータ) (2021-03-09T10:17:22Z) - Extractive Summarization as Text Matching [123.09816729675838]
本稿では,ニューラル抽出要約システムの構築方法に関するパラダイムシフトを作成する。
抽出した要約タスクを意味テキストマッチング問題として定式化する。
我々はCNN/DailyMailの最先端抽出結果を新しいレベル(ROUGE-1の44.41)に推し進めた。
論文 参考訳(メタデータ) (2020-04-19T08:27:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。