論文の概要: Syntactic-GCN Bert based Chinese Event Extraction
- arxiv url: http://arxiv.org/abs/2112.09939v1
- Date: Sat, 18 Dec 2021 14:07:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-21 15:22:08.182467
- Title: Syntactic-GCN Bert based Chinese Event Extraction
- Title(参考訳): 構文GCNベルトに基づく中国語イベント抽出
- Authors: Jiangwei Liu, Jingshu Zhang, Xiaohong Huang, Liangyu Min
- Abstract要約: 本研究では,中国語イベント抽出を行う統合フレームワークを提案する。
提案するアプローチは、意味的特徴と構文的特徴を統合するマルチチャネル入力ニューラルフレームワークである。
実験結果から,提案手法はベンチマーク手法よりも有意に優れていることがわかった。
- 参考スコア(独自算出の注目度): 2.3104000011280403
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid development of information technology, online platforms (e.g.,
news portals and social media) generate enormous web information every moment.
Therefore, it is crucial to extract structured representations of events from
social streams. Generally, existing event extraction research utilizes pattern
matching, machine learning, or deep learning methods to perform event
extraction tasks. However, the performance of Chinese event extraction is not
as good as English due to the unique characteristics of the Chinese language.
In this paper, we propose an integrated framework to perform Chinese event
extraction. The proposed approach is a multiple channel input neural framework
that integrates semantic features and syntactic features. The semantic features
are captured by BERT architecture. The Part of Speech (POS) features and
Dependency Parsing (DP) features are captured by profiling embeddings and Graph
Convolutional Network (GCN), respectively. We also evaluate our model on a
real-world dataset. Experimental results show that the proposed method
outperforms the benchmark approaches significantly.
- Abstract(参考訳): 情報技術の急速な発展に伴い、オンラインプラットフォーム(ニュースポータルやソーシャルメディアなど)は毎回膨大なウェブ情報を生成する。
したがって,イベントの構造化表現をソーシャルストリームから抽出することが重要である。
一般に、既存のイベント抽出研究はパターンマッチング、機械学習、あるいはディープラーニング手法を用いてイベント抽出タスクを実行する。
しかし、中国語の独特の特徴から、中国語のイベント抽出性能は英語ほど良くない。
本稿では,中国のイベント抽出を行うための統合フレームワークを提案する。
提案するアプローチは、意味的特徴と構文的特徴を統合するマルチチャネル入力ニューラルフレームワークである。
セマンティック機能はBERTアーキテクチャによってキャプチャされる。
音声(POS)機能と依存性解析(DP)機能はそれぞれ、プロファイリング埋め込みとグラフ畳み込みネットワーク(GCN)によってキャプチャされる。
また、実世界のデータセットでモデルを評価する。
実験の結果,提案手法はベンチマーク手法を大きく上回ることがわかった。
関連論文リスト
- Spatio-Temporal Context Prompting for Zero-Shot Action Detection [13.22912547389941]
本稿では,視覚言語モデルの豊富な知識を効果的に活用し,対人インタラクションを実現する手法を提案する。
同時に複数の人物による異なる行動を認識するという課題に対処するために,興味あるトークンスポッティング機構を設計する。
提案手法は,従来の手法に比べて優れた結果を得ることができ,さらにマルチアクションビデオに拡張することができる。
論文 参考訳(メタデータ) (2024-08-28T17:59:05Z) - Spatio-Temporal Side Tuning Pre-trained Foundation Models for Video-based Pedestrian Attribute Recognition [58.79807861739438]
既存の歩行者認識アルゴリズム(PAR)は主に静的画像に基づいて開発されている。
本稿では,時間的情報を完全に活用できるビデオフレームを用いて,人間の属性を理解することを提案する。
論文 参考訳(メタデータ) (2024-04-27T14:43:32Z) - YAYI-UIE: A Chat-Enhanced Instruction Tuning Framework for Universal Information Extraction [20.32778991187863]
ユニバーサル情報抽出(YAYI-UIE)のためのエンドツーエンドのチャット強化指導フレームワークを提案する。
具体的には,対話データと情報抽出データを用いて,情報抽出性能を協調的に向上する。
論文 参考訳(メタデータ) (2023-12-24T21:33:03Z) - Modeling Multi-Granularity Hierarchical Features for Relation Extraction [26.852869800344813]
本稿では,原文のみに基づく多粒度特徴抽出手法を提案する。
外部知識を必要とせずに,効果的な構造的特徴が達成可能であることを示す。
論文 参考訳(メタデータ) (2022-04-09T09:44:05Z) - An Entropy-guided Reinforced Partial Convolutional Network for Zero-Shot
Learning [77.72330187258498]
エントロピー誘導強化部分畳み込みネットワーク(ERPCNet)を提案する。
ERPCNetは、人間のアノテーションのない意味的関連性と視覚的相関に基づいて、局所性を抽出し、集約する。
グローバルな協力的局所性を動的に発見するだけでなく、ポリシー勾配最適化のためにより高速に収束する。
論文 参考訳(メタデータ) (2021-11-03T11:13:13Z) - Reinforced Iterative Knowledge Distillation for Cross-Lingual Named
Entity Recognition [54.92161571089808]
言語間NERは、知識をリッチリソース言語から低リソース言語に転送する。
既存の言語間NERメソッドは、ターゲット言語でリッチなラベル付けされていないデータをうまく利用しない。
半教師付き学習と強化学習のアイデアに基づく新しいアプローチを開発する。
論文 参考訳(メタデータ) (2021-06-01T05:46:22Z) - Towards Robust Visual Information Extraction in Real World: New Dataset
and Novel Solution [30.438041837029875]
実世界のシナリオに向けた堅牢な視覚情報抽出システム(VIES)を提案する。
VIESは、同時テキスト検出、認識、情報抽出のための統一されたエンドツーエンドのトレーニング可能なフレームワークです。
テキストスポッティングと視覚情報抽出の両方の中国初のベンチマークであるephoieと呼ばれる完全注釈付きデータセットを構築した。
論文 参考訳(メタデータ) (2021-01-24T11:05:24Z) - N-LTP: An Open-source Neural Language Technology Platform for Chinese [68.58732970171747]
textttN-は、中国の6つの基本的なNLPタスクをサポートする、オープンソースのニューラルネットワークテクノロジプラットフォームである。
textttN-は、中国のタスク間で共有知識をキャプチャする利点がある共有事前学習モデルを使用することで、マルチタスクフレームワークを採用する。
論文 参考訳(メタデータ) (2020-09-24T11:45:39Z) - Language Guided Networks for Cross-modal Moment Retrieval [66.49445903955777]
モーダルモーダルモーメント検索は、自然言語クエリによって記述された未編集ビデオから時間セグメントをローカライズすることを目的としている。
既存の手法は、ビデオや文の特徴を独立して抽出する。
本稿では,言語ガイドネットワーク(LGN, Language Guided Networks)について紹介する。
論文 参考訳(メタデータ) (2020-06-18T12:08:40Z) - ESPnet-ST: All-in-One Speech Translation Toolkit [57.76342114226599]
ESPnet-STは、エンドツーエンドの音声処理ツールキットであるESPnet内の新しいプロジェクトである。
音声認識、機械翻訳、音声翻訳のための音声合成機能を実装する。
データ前処理、特徴抽出、トレーニング、デコードパイプラインを含むオールインワンのレシピを提供します。
論文 参考訳(メタデータ) (2020-04-21T18:38:38Z) - PICK: Processing Key Information Extraction from Documents using
Improved Graph Learning-Convolutional Networks [5.210482046387142]
文書から重要な情報抽出は依然として課題である。
我々は,KIEの複雑なドキュメントレイアウトを扱う上で,効果的かつ堅牢なフレームワークであるPICKを紹介する。
提案手法は, 基準線法を有意差で上回っている。
論文 参考訳(メタデータ) (2020-04-16T05:20:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。