論文の概要: BERTologyNavigator: Advanced Question Answering with BERT-based
Semantics
- arxiv url: http://arxiv.org/abs/2401.09553v1
- Date: Wed, 17 Jan 2024 19:11:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-19 18:45:01.793623
- Title: BERTologyNavigator: Advanced Question Answering with BERT-based
Semantics
- Title(参考訳): BERTologyNavigator: BERTベースのセマンティックによる高度な質問応答
- Authors: Shreya Rajpal (1,2), Ricardo Usbeck (1) ((1) Universit\"at Hamburg,
Hamburg, Germany,(2) Vellore Institute of Technology, Vellore, Tamil Nadu,
India)
- Abstract要約: BERTologyNavigatorは、関係抽出技術とBERT埋め込みを組み合わせた2相システムである。
本システムは,DBLP QuADファイナルテストデータセットで0.2175点,QAフェーズでDBLP QuADテストデータセットのサブセットで0.98点に到達した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The development and integration of knowledge graphs and language models has
significance in artificial intelligence and natural language processing. In
this study, we introduce the BERTologyNavigator -- a two-phased system that
combines relation extraction techniques and BERT embeddings to navigate the
relationships within the DBLP Knowledge Graph (KG). Our approach focuses on
extracting one-hop relations and labelled candidate pairs in the first phases.
This is followed by employing BERT's CLS embeddings and additional heuristics
for relation selection in the second phase. Our system reaches an F1 score of
0.2175 on the DBLP QuAD Final test dataset for Scholarly QALD and 0.98 F1 score
on the subset of the DBLP QuAD test dataset during the QA phase.
- Abstract(参考訳): 知識グラフと言語モデルの開発と統合は、人工知能と自然言語処理において重要である。
本研究では,DBLPナレッジグラフ(KG)内の関係をナビゲートするために,関係抽出技術とBERT埋め込みを組み合わせた二相システムであるBERTologyNavigatorを紹介する。
提案手法は,第1段階における1-hop関係とラベル付き候補ペアの抽出に焦点をあてる。
この後、BERT の CLS 埋め込みと第二フェーズにおける関係選択のための追加のヒューリスティックが採用された。
本システムは,DBLP QuADファイナルテストデータセットで0.2175点,QAフェーズでDBLP QuADテストデータセットのサブセットで0.98点に到達した。
関連論文リスト
- Detecting Redundant Health Survey Questions Using Language-agnostic BERT Sentence Embedding (LaBSE) [0.27979733090439307]
我々はNIH CDEリポジトリ, PROMIS, 韓国の公衆衛生機関, 学術出版物から, 英語と韓国語の両方で書かれた様々な健康調査質問をまとめた。
1758の質問ペアからなるセマンティックテキスト類似性データセットを生成するためにランダム化された質問ペア方式が用いられた。
各質問のペア間の類似度スコアは2人の人間専門家によって割り当てられた。
論文 参考訳(メタデータ) (2024-12-05T02:18:35Z) - BERT-Based Approach for Automating Course Articulation Matrix Construction with Explainable AI [1.4214002697449326]
コースアウトカム(CO)とプログラムアウトカム(PO)/プログラムアウトカム(PSO)アライメントは,カリキュラムの一貫性を確保し,教育効果を評価する上で重要な課題である。
本研究は,CAM(Course Articulation Matrix)の自動生成のためのBERTモデルを用いた伝達学習の可能性を示す。
精度,精度,リコール,F1スコアはそれぞれ98.66%,98.67%,98.66%,98.66%である。
論文 参考訳(メタデータ) (2024-11-21T16:02:39Z) - A Novel Two-Step Fine-Tuning Pipeline for Cold-Start Active Learning in Text Classification Tasks [7.72751543977484]
本研究は, 寒冷開始シナリオにおけるアクティブラーニング(AL)タスクにおけるBERTベースのコンテキスト埋め込みの有効性について検討する。
私たちの主な貢献は、より堅牢な微調整パイプラインであるDoTCALの提案です。
本評価では,Bag of Words (BoW), Latent Semantic Indexing (LSI), FastTextなど,BERTベースの埋め込みと他の一般的なテキスト表現パラダイムとの対比を行った。
論文 参考訳(メタデータ) (2024-07-24T13:50:21Z) - The Death of Feature Engineering? BERT with Linguistic Features on SQuAD 2.0 [16.95168095046929]
BERTと追加の言語的特徴を取り入れたエンドツーエンドの質問応答モデルを開発した。
EMスコアとF1スコアはBERT(base)と比較して2.17と2.14が改善される
論文 参考訳(メタデータ) (2024-04-04T03:50:34Z) - Retrieval and Generative Approaches for a Pregnancy Chatbot in Nepali
with Stemmed and Non-Stemmed Data : A Comparative Study [0.0]
ネパール語のデータセットのパフォーマンスは、それぞれのアプローチで分析されている。
BERTをベースとした事前学習モデルでは,スクラッチトランスフォーマーモデルではスクラッチデータの性能が良好である。
論文 参考訳(メタデータ) (2023-11-12T17:16:46Z) - PAXQA: Generating Cross-lingual Question Answering Examples at Training
Scale [53.92008514395125]
PAXQA(クロスリンガル(x)QAのアノテーションの計画)は、クロスリンガルQAを2段階に分解する。
本稿では、並列ビットから制約されたエンティティを抽出する語彙制約機械翻訳の新たな利用法を提案する。
これらのデータセットに基づいて微調整されたモデルは、複数の抽出されたQAデータセット上で、先行合成データ生成モデルより優れていることを示す。
論文 参考訳(メタデータ) (2023-04-24T15:46:26Z) - TAT-QA: A Question Answering Benchmark on a Hybrid of Tabular and
Textual Content in Finance [71.76018597965378]
TAT-QAと呼ばれるタブラデータとテクスチャデータの両方を含む新しい大規模な質問応答データセットを構築します。
本稿では,テーブルとテキストの両方を推論可能な新しいQAモデルであるTAGOPを提案する。
論文 参考訳(メタデータ) (2021-05-17T06:12:06Z) - Local Additivity Based Data Augmentation for Semi-supervised NER [59.90773003737093]
名前付きエンティティ認識(NER)は、深層言語理解の第1段階の1つである。
現在のNERモデルは、人間の注釈付きデータに大きく依存している。
半教師付きNERのための局所付加性に基づくデータ拡張法(LADA)を提案する。
論文 参考訳(メタデータ) (2020-10-04T20:46:26Z) - Leveraging Semantic Parsing for Relation Linking over Knowledge Bases [80.99588366232075]
本稿では,AMRを用いた意味解析と遠隔監視を利用した関係リンクフレームワークであるSlingを提案する。
Slingは複数の関係リンクアプローチを統合し、言語的手がかり、豊かな意味表現、知識ベースからの情報などの補完的な信号をキャプチャする。
QALD-7, QALD-9, LC-QuAD 1.0という3つのKBQAデータセットを用いた関係リンク実験により, 提案手法が全てのベンチマークで最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2020-09-16T14:56:11Z) - Syntactic Structure Distillation Pretraining For Bidirectional Encoders [49.483357228441434]
本稿では,BERTプレトレーニングに構文バイアスを注入するための知識蒸留手法を提案する。
我々は,構文的 LM から単語の周辺分布を抽出する。
本研究は,大量のデータを利用する表現学習者においても,構文バイアスの利点を示すものである。
論文 参考訳(メタデータ) (2020-05-27T16:44:01Z) - Harvesting and Refining Question-Answer Pairs for Unsupervised QA [95.9105154311491]
教師なし質問回答(QA)を改善するための2つのアプローチを提案する。
まず、ウィキペディアから語彙的・構文的に異なる質問を抽出し、質問応答対のコーパスを自動的に構築する(RefQAと名づけられる)。
第2に、より適切な回答を抽出するためにQAモデルを活用し、RefQA上でデータを反復的に洗練する。
論文 参考訳(メタデータ) (2020-05-06T15:56:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。