論文の概要: Dynamic Multi-View Fusion Mechanism For Chinese Relation Extraction
- arxiv url: http://arxiv.org/abs/2303.05082v1
- Date: Thu, 9 Mar 2023 07:35:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-10 15:43:51.916517
- Title: Dynamic Multi-View Fusion Mechanism For Chinese Relation Extraction
- Title(参考訳): 中国関係抽出のための動的多視点融合機構
- Authors: Jing Yang, Bin Ji, Shasha Li, Jun Ma, Long Peng, and Jie Yu
- Abstract要約: そこで我々は,中国関係抽出のための多視点特徴を動的に学習するMix-of-view-experts framework(MoVE)を提案する。
漢字の内的知識と外的知識の両面から,我々の枠組みは漢字の意味情報をよりよく捉えることができる。
- 参考スコア(独自算出の注目度): 12.818297160055584
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, many studies incorporate external knowledge into character-level
feature based models to improve the performance of Chinese relation extraction.
However, these methods tend to ignore the internal information of the Chinese
character and cannot filter out the noisy information of external knowledge. To
address these issues, we propose a mixture-of-view-experts framework (MoVE) to
dynamically learn multi-view features for Chinese relation extraction. With
both the internal and external knowledge of Chinese characters, our framework
can better capture the semantic information of Chinese characters. To
demonstrate the effectiveness of the proposed framework, we conduct extensive
experiments on three real-world datasets in distinct domains. Experimental
results show consistent and significant superiority and robustness of our
proposed framework. Our code and dataset will be released at:
https://gitee.com/tmg-nudt/multi-view-of-expert-for-chineserelation-extraction
- Abstract(参考訳): 近年,中国語関係抽出の性能を向上させるために,外部知識を特徴量ベースモデルに組み込む研究が数多く行われている。
しかし、これらの手法は漢字の内部情報を無視する傾向があり、外部知識の騒々しい情報をフィルタリングすることができない。
これらの課題に対処するため,中国関係抽出のための多視点特徴を動的に学習するための混合ビューエキスパートフレームワーク (MoVE) を提案する。
漢字の内部知識と外部知識の両面から,我々の枠組みは漢字の意味情報をよりよく捉えることができる。
提案手法の有効性を実証するため,異なる領域の3つの実世界データセットについて広範な実験を行った。
実験の結果,提案フレームワークの一貫性と顕著な優位性と堅牢性を示した。
私たちのコードとデータセットは、https://gitee.com/tmg-nudt/multi-view-of-expert-for- chineserelation-extractionでリリースされます。
関連論文リスト
- Towards Retrieval-Augmented Architectures for Image Captioning [81.11529834508424]
本研究は,外部kNNメモリを用いた画像キャプションモデルの構築に向けた新しい手法を提案する。
具体的には、視覚的類似性に基づく知識検索コンポーネントを組み込んだ2つのモデル変種を提案する。
我々はCOCOデータセットとnocapsデータセットに対する我々のアプローチを実験的に検証し、明示的な外部メモリを組み込むことでキャプションの品質を著しく向上させることができることを示した。
論文 参考訳(メタデータ) (2024-05-21T18:02:07Z) - 3AM: An Ambiguity-Aware Multi-Modal Machine Translation Dataset [90.95948101052073]
英語と中国語で26,000のパラレル文対からなる曖昧性を考慮したMMTデータセットである3AMを導入する。
我々のデータセットは、他のMTデータセットよりもあいまいで、キャプションと画像の両方が多種多様であるように設計されています。
実験の結果,我々のデータセットでトレーニングしたMTモデルは,他のMTデータセットでトレーニングしたMTモデルよりも視覚情報を活用する能力が高いことがわかった。
論文 参考訳(メタデータ) (2024-04-29T04:01:30Z) - YAYI-UIE: A Chat-Enhanced Instruction Tuning Framework for Universal Information Extraction [20.32778991187863]
ユニバーサル情報抽出(YAYI-UIE)のためのエンドツーエンドのチャット強化指導フレームワークを提案する。
具体的には,対話データと情報抽出データを用いて,情報抽出性能を協調的に向上する。
論文 参考訳(メタデータ) (2023-12-24T21:33:03Z) - Multi-Grained Multimodal Interaction Network for Entity Linking [65.30260033700338]
マルチモーダルエンティティリンクタスクは、マルチモーダル知識グラフへの曖昧な言及を解決することを目的としている。
MELタスクを解決するための新しいMulti-Grained Multimodal InteraCtion Network $textbf(MIMIC)$ frameworkを提案する。
論文 参考訳(メタデータ) (2023-07-19T02:11:19Z) - Information Screening whilst Exploiting! Multimodal Relation Extraction
with Feature Denoising and Multimodal Topic Modeling [96.75821232222201]
既存のマルチモーダル関係抽出(MRE)研究は、内部情報過剰利用と外部情報過多という2つの共存課題に直面している。
内部情報スクリーニングと外部情報活用を同時に実現する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-19T14:56:57Z) - Improving Chinese Named Entity Recognition by Search Engine Augmentation [2.971423962840551]
そこで我々は,中国語NERのサーチエンジンから外部知識を用いて意味拡張を行うニューラルネットワークアプローチを提案する。
特に、検索エンジンから検索した外部関連テキストを集約する拡張入力表現を生成するために、多チャンネル意味融合モデルを採用する。
論文 参考訳(メタデータ) (2022-10-23T08:42:05Z) - Retrieval-Augmented Transformer for Image Captioning [51.79146669195357]
我々は、kNNメモリを用いた画像キャプション手法を開発し、外部コーパスから知識を抽出して生成プロセスを支援する。
我々のアーキテクチャは、視覚的類似性に基づく知識検索と、識別可能なエンコーダと、トークンを予測するためにkNN拡張アテンション層を組み合わせる。
COCOデータセットで実施した実験結果は、明示的な外部メモリを利用することで、生成プロセスの助けとなり、キャプションの品質が向上することを示した。
論文 参考訳(メタデータ) (2022-07-26T19:35:49Z) - Knowledge Graph Augmented Network Towards Multiview Representation
Learning for Aspect-based Sentiment Analysis [96.53859361560505]
本稿では,知識グラフ拡張ネットワーク(KGAN)を提案する。
KGANは感情の特徴表現を、文脈、構文、知識に基づく複数の視点から捉えている。
3つの人気のあるABSAベンチマークの実験は、我々のKGANの有効性と堅牢性を示している。
論文 参考訳(メタデータ) (2022-01-13T08:25:53Z) - Syntactic-GCN Bert based Chinese Event Extraction [2.3104000011280403]
本研究では,中国語イベント抽出を行う統合フレームワークを提案する。
提案するアプローチは、意味的特徴と構文的特徴を統合するマルチチャネル入力ニューラルフレームワークである。
実験結果から,提案手法はベンチマーク手法よりも有意に優れていることがわかった。
論文 参考訳(メタデータ) (2021-12-18T14:07:54Z) - MECT: Multi-Metadata Embedding based Cross-Transformer for Chinese Named
Entity Recognition [21.190288516462704]
本稿では,中国語NERの性能向上を目的とした,MECT(Multi-metadata Embedding based Cross-Transformer)を提案する。
具体的には、2ストリームのトランスフォーマーにマルチメタメタを埋め込み、漢字の特徴とラジカルレベルの埋め込みを統合する。
漢字の構造的特徴により、MECTはNERのための漢字の意味情報をよりよく捉えることができる。
論文 参考訳(メタデータ) (2021-07-12T13:39:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。