論文の概要: Multi$^2$OIE: Multilingual Open Information Extraction Based on
Multi-Head Attention with BERT
- arxiv url: http://arxiv.org/abs/2009.08128v2
- Date: Wed, 7 Oct 2020 06:41:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 08:15:29.330699
- Title: Multi$^2$OIE: Multilingual Open Information Extraction Based on
Multi-Head Attention with BERT
- Title(参考訳): multi$^2$oie: bertを用いた多頭注意に基づく多言語オープン情報抽出
- Authors: Youngbin Ro, Yukyung Lee, Pilsung Kang
- Abstract要約: BERTとマルチヘッドアテンションを組み合わせたオープン情報抽出(オープンIE)を行うMulti$2$OIEを提案する。
本モデルは,効率的かつ効率的な引数抽出手法を用いたシーケンスラベルシステムである。
- 参考スコア(独自算出の注目度): 7.661675959139123
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose Multi$^2$OIE, which performs open information
extraction (open IE) by combining BERT with multi-head attention. Our model is
a sequence-labeling system with an efficient and effective argument extraction
method. We use a query, key, and value setting inspired by the Multimodal
Transformer to replace the previously used bidirectional long short-term memory
architecture with multi-head attention. Multi$^2$OIE outperforms existing
sequence-labeling systems with high computational efficiency on two benchmark
evaluation datasets, Re-OIE2016 and CaRB. Additionally, we apply the proposed
method to multilingual open IE using multilingual BERT. Experimental results on
new benchmark datasets introduced for two languages (Spanish and Portuguese)
demonstrate that our model outperforms other multilingual systems without
training data for the target languages.
- Abstract(参考訳): 本稿では,BERTとマルチヘッドアテンションを組み合わせたオープン情報抽出(オープンIE)を行うMulti$2$OIEを提案する。
本モデルは効率的かつ効果的な引数抽出手法を備えたシーケンスラベルシステムである。
我々は、Multimodal Transformerにインスパイアされたクエリ、キー、値設定を使用して、以前使用されていた双方向の長期記憶アーキテクチャをマルチヘッドで置き換える。
multi$^2$oieは2つのベンチマーク評価データセット、re-oie2016とcarbで計算効率の高い既存のシーケンスラベルシステムを上回る。
さらに,提案手法を多言語BERTを用いた多言語オープンIEに適用する。
2つの言語(スペイン語とポルトガル語)で導入された新しいベンチマークデータセットの実験結果から,本モデルは,対象言語をトレーニングすることなく,他の多言語システムよりも優れていることが示された。
関連論文リスト
- LUSIFER: Language Universal Space Integration for Enhanced Multilingual Embeddings with Large Language Models [89.13128402847943]
LUSIFERは,LLMをベースとした多言語タスクの埋め込みモデルに,多言語監視を必要とせずに適用可能なゼロショット方式である。
LUSIFERのアーキテクチャは多言語エンコーダを組み、言語ユニバーサル学習者として機能し、埋め込み固有のタスクに最適化されたLLMベースの埋め込みモデルと組み合わせている。
5つの主要な埋め込みタスク、123の多様なデータセット、14言語にわたるカバレッジを含む新しいベンチマークを導入する。
論文 参考訳(メタデータ) (2025-01-01T15:43:07Z) - M$^{3}$D: A Multimodal, Multilingual and Multitask Dataset for Grounded Document-level Information Extraction [36.506500653677364]
我々はM$3$Dというマルチモーダル多言語マルチタスクデータセットを構築した。
ペア化された文書レベルのテキストとビデオを含み、マルチモーダル情報を豊かにする。
広く使われている2つの言語、すなわち英語と中国語をサポートしている。
論文 参考訳(メタデータ) (2024-12-05T10:00:58Z) - P-MMEval: A Parallel Multilingual Multitask Benchmark for Consistent Evaluation of LLMs [84.24644520272835]
大きな言語モデル(LLM)は、翻訳、コード生成、推論といったタスクにまたがる様々な多言語機能を示す。
以前の評価では、その範囲を基本自然言語処理(NLP)や、独立した機能固有のタスクに制限することが多かった。
我々は、これらのベンチマークの有用性に関する以前の研究の監視に対処するため、大規模ベンチマークから利用可能な、合理的なベンチマークを選択するパイプラインを提案する。
本稿では,P-MMEvalを提案する。P-MMEval,P-MMEval,P-MMEval,P-MMEval,P-MMEval,P-MMEval。
論文 参考訳(メタデータ) (2024-11-14T01:29:36Z) - MT4CrossOIE: Multi-stage Tuning for Cross-lingual Open Information
Extraction [38.88339164947934]
言語横断的オープン情報抽出は,複数の言語にまたがる原文から構造化された情報を抽出することを目的としている。
以前の作業では、異なる言語を扱うために、共通言語間の事前訓練モデルを使用していたが、言語固有の表現の可能性を過小評価している。
MT4CrossIEという,言語間オープン情報抽出の効率化を目的とした,効果的な多段階チューニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-12T12:38:10Z) - Active Learning for Multilingual Semantic Parser [65.2180122032335]
多言語意味解析(AL-MSP)のための最初の能動的学習手法を提案する。
AL-MSPは翻訳対象の既存のデータセットからサブセットのみを選択する。
実験の結果,AL-MSPは理想的な選択法で翻訳コストを大幅に削減できることがわかった。
論文 参考訳(メタデータ) (2023-01-30T14:19:29Z) - Multilingual Multimodal Learning with Machine Translated Text [27.7207234512674]
英語のマルチモーダルデータの機械翻訳が、容易に利用できる多言語データの欠如を抑えるための効果的なプロキシとなるかどうかを考察する。
得られたデータセットからそのような翻訳を自動的に除去する2つの指標を提案する。
In experiment on five task across 20 languages in the IGLUE benchmark, we show that translated data can provide a useful signal for multilingual multimodal learning。
論文 参考訳(メタデータ) (2022-10-24T11:41:20Z) - Multi2WOZ: A Robust Multilingual Dataset and Conversational Pretraining
for Task-Oriented Dialog [67.20796950016735]
Multi2WOZデータセットは、中国語、ドイツ語、アラビア語、ロシア語の4つの言語にまたがる。
本稿では,任意の下流TODタスクに対する言語間移動を容易にすることを目的とした,事前学習言語モデル(PrLM)の多言語会話特化のための新しいフレームワークを提案する。
実験の結果,目標言語における(I)会話の特殊化と,(II)具体的なTODタスクのための少数ショット転送の組み合わせが,ほとんどの場合,最高の性能を示すことがわかった。
論文 参考訳(メタデータ) (2022-05-20T18:35:38Z) - Explicit Alignment Objectives for Multilingual Bidirectional Encoders [111.65322283420805]
本稿では,多言語エンコーダAMBER(Aligned Multilingual Bi-directional EncodeR)の学習方法を提案する。
AMBERは、異なる粒度で多言語表現を整列する2つの明示的なアライメント目標を使用して、追加の並列データに基づいて訓練される。
実験結果から、AMBERは、シーケンスタグ付けで1.1平均F1スコア、XLMR-大規模モデル上での検索で27.3平均精度を得ることがわかった。
論文 参考訳(メタデータ) (2020-10-15T18:34:13Z) - CoSDA-ML: Multi-Lingual Code-Switching Data Augmentation for Zero-Shot
Cross-Lingual NLP [68.2650714613869]
我々は,mBERTを微調整するための多言語コードスイッチングデータを生成するためのデータ拡張フレームワークを提案する。
既存の研究と比較すると,本手法は訓練にバイリンガル文を頼らず,複数の対象言語に対して1つの学習プロセスしか必要としない。
論文 参考訳(メタデータ) (2020-06-11T13:15:59Z) - Cross-lingual Information Retrieval with BERT [8.052497255948046]
本稿では、人気のある双方向言語モデルBERTを用いて、英語クエリと外国語文書の関係をモデル化し、学習する。
BERTに基づく深部関係マッチングモデルを導入し,教師の弱い事前学習多言語BERTモデルを微調整して訓練する。
短い英語クエリに対するリトアニア語文書の検索実験の結果、我々のモデルは有効であり、競争ベースラインのアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2020-04-24T23:32:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。