論文の概要: Composable NLP Workflows for BERT-based Ranking and QA System
- arxiv url: http://arxiv.org/abs/2504.09398v1
- Date: Sun, 13 Apr 2025 01:48:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-15 16:55:23.838262
- Title: Composable NLP Workflows for BERT-based Ranking and QA System
- Title(参考訳): BERTに基づくランキングとQAシステムのための構成可能なNLPワークフロー
- Authors: Gaurav Kumar, Murali Mohana Krishna Dandu,
- Abstract要約: 構成可能なNLPパイプラインを生成するツールキットであるForteを使用して,エンドツーエンドのランク付けと質問応答(QA)システムを構築した。
当社のパイプラインではBERTやRoBERTaといった最先端のディープラーニングモデルを使用しています。
パイプラインのモジュール化の性質とリランカの低レイテンシにより、複雑なNLPアプリケーションを簡単に構築できます。
- 参考スコア(独自算出の注目度): 1.4298574812790055
- License:
- Abstract: There has been a lot of progress towards building NLP models that scale to multiple tasks. However, real-world systems contain multiple components and it is tedious to handle cross-task interaction with varying levels of text granularity. In this work, we built an end-to-end Ranking and Question-Answering (QA) system using Forte, a toolkit that makes composable NLP pipelines. We utilized state-of-the-art deep learning models such as BERT, RoBERTa in our pipeline, evaluated the performance on MS-MARCO and Covid-19 datasets using metrics such as BLUE, MRR, F1 and compared the results of ranking and QA systems with their corresponding benchmark results. The modular nature of our pipeline and low latency of reranker makes it easy to build complex NLP applications easily.
- Abstract(参考訳): 複数のタスクにスケールするNLPモデルの構築には、多くの進歩がありました。
しかし、実世界のシステムには複数のコンポーネントが含まれており、テキストの粒度の異なるクロスタスクインタラクションを扱うのは面倒である。
本研究では,構成可能なNLPパイプラインを生成するツールキットであるForteを用いて,エンドツーエンドのランク付けと質問応答(QA)システムを構築した。
我々は、BERT、RoBERTaといった最先端のディープラーニングモデルを利用して、BLUE、MRR、F1といったメトリクスを用いてMS-MARCOおよびCovid-19データセットのパフォーマンスを評価し、ランキングとQAシステムの結果と対応するベンチマーク結果を比較した。
パイプラインのモジュール化の性質とリランカの低レイテンシにより、複雑なNLPアプリケーションを簡単に構築できます。
関連論文リスト
- TQA-Bench: Evaluating LLMs for Multi-Table Question Answering with Scalable Context and Symbolic Extension [8.489816179329832]
TQA-Benchは,大規模言語モデル(LLM)の複雑なQAタスクをリレーショナルデータ上で処理する能力を評価するために設計された,新しいマルチテーブルQAベンチマークである。
我々のベンチマークでは、現実世界のパブリックデータセットから得られた多様なリレーショナルデータベースインスタンスを組み込んでいます。
我々は、70億から700億のパラメータにまたがる、オープンソースとクローズドソースの両方のLLMを体系的に評価する。
論文 参考訳(メタデータ) (2024-11-29T06:48:13Z) - Residual Multi-Task Learner for Applied Ranking [11.774841918446137]
ResFlowは、効率的なクロスタスク情報共有を可能にする軽量なマルチタスク学習フレームワークである。
Shopee Searchのプレランクモジュールに完全にデプロイされている。
論文 参考訳(メタデータ) (2024-10-30T06:49:45Z) - BabelBench: An Omni Benchmark for Code-Driven Analysis of Multimodal and Multistructured Data [61.936320820180875]
大規模言語モデル(LLM)は、様々な領域でますます重要になっている。
BabelBenchは、コード実行によるマルチモーダルなマルチ構造化データ管理におけるLLMの熟練度を評価する革新的なベンチマークフレームワークである。
BabelBenchの実験結果から,ChatGPT 4のような最先端モデルでさえ,大幅な改善の余地があることが示唆された。
論文 参考訳(メタデータ) (2024-10-01T15:11:24Z) - PEFSL: A deployment Pipeline for Embedded Few-Shot Learning on a FPGA SoC [0.0]
FPGAシステム上でのオブジェクト分類のための数ショット学習プラットフォームのためのエンドツーエンドのオープンソースパイプラインを開発した。
データフローアーキテクチャを用いて,MiniImageNetデータセットでトレーニングした低消費電力で低レイテンシなデモレータを構築し,デプロイする。
提案システムは、PYNQ-Z1基板上で6.2Wを消費しながら、30ミリ秒のレイテンシを持つ。
論文 参考訳(メタデータ) (2024-04-30T08:33:52Z) - An Empirical Study of Pre-trained Language Models in Simple Knowledge
Graph Question Answering [28.31377197194905]
大規模事前学習型言語モデル(PLM)は、最近大きな成功を収め、自然言語処理(NLP)のマイルストーンとなった。
近年、知識グラフ質問応答 (KGQA) の研究において、BERT やその変種は KGQA モデルにおいて必要となっている。
我々は、KGQAにおける異なるPLMの性能を比較し、より大規模なKGに対する3つのベンチマークを示す。
論文 参考訳(メタデータ) (2023-03-18T08:57:09Z) - Demonstrate-Search-Predict: Composing retrieval and language models for
knowledge-intensive NLP [77.817293104436]
本稿では,LMとRMの間の洗練されたパイプラインにおいて,自然言語テキストを渡すことに依存するフレームワークを提案する。
我々は、オープンドメイン、マルチホップ、会話設定で質問に答えるための新しいDSPプログラムを作成した。
論文 参考訳(メタデータ) (2022-12-28T18:52:44Z) - EdnaML: A Declarative API and Framework for Reproducible Deep Learning [2.0632440472879514]
再現可能なディープラーニングのための宣言型APIを備えたフレームワークであるEdnaMLを紹介する。
EdnaMLは、手動で構成できる低レベルのビルディングブロックと、高レベルのパイプラインオーケストレーションAPIを提供する。
大規模なフェイクニュースラベリングと分類システムを含む,EdnaMLを用いたMLパイプラインの例を示す。
論文 参考訳(メタデータ) (2022-11-13T01:27:06Z) - Number Entity Recognition [65.80137628972312]
番号は他のワードトークンと同様に、自然言語処理(NLP)モデルを構築し、デプロイするテキストの必須コンポーネントである。
本研究では、最先端のNLPモデルの可能性を活用し、関連するタスクにおける性能向上能力の伝達を試みる。
提案した数値をエンティティに分類することで,手作りのFill-In-The-Blank (FITB)タスクや,関節埋め込みを用いた質問応答など,NLPモデルの性能が向上する。
論文 参考訳(メタデータ) (2022-05-07T05:22:43Z) - Parameter-Efficient Abstractive Question Answering over Tables or Text [60.86457030988444]
QAシステムを求める情報の長期的な野望は、マルチモーダルなコンテキストを推論し、ユーザクエリに対する自然な回答を生成することである。
メモリ集約型事前学習言語モデルは、構造化されていないテキストや構造化テーブルのような特定のモードでQAデータ上のモデルを微調整することで、QAのような下流タスクに適応する。
パラメータ効率の良いアダプタは、トランス層間の小さなタスク固有のボトルネック層を加算し、訓練する。
論文 参考訳(メタデータ) (2022-04-07T10:56:29Z) - A Data-Centric Framework for Composable NLP Workflows [109.51144493023533]
アプリケーションドメインにおける経験的自然言語処理システム(例えば、ヘルスケア、ファイナンス、教育)は、複数のコンポーネント間の相互運用を伴う。
我々は,このような高度なNLPの高速な開発を支援するために,統一的なオープンソースフレームワークを構築した。
論文 参考訳(メタデータ) (2021-03-02T16:19:44Z) - Conversational Question Reformulation via Sequence-to-Sequence
Architectures and Pretrained Language Models [56.268862325167575]
本稿では、列列列構造と事前学習言語モデル(PLM)を用いた会話型質問修正(CQR)の実証的研究について述べる。
我々はPLMを利用して、CQRタスクの目的である最大推定におけるトークン・トークン・トークン・トークンの独立性の強い仮定に対処する。
我々は、最近導入されたCANARDデータセットの微調整PLMをドメイン内タスクとして評価し、TREC 2019 CAsT Trackのデータからドメイン外タスクとしてモデルを検証する。
論文 参考訳(メタデータ) (2020-04-04T11:07:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。