論文の概要: Linear programming word problems formulation using EnsembleCRF NER
labeler and T5 text generator with data augmentations
- arxiv url: http://arxiv.org/abs/2212.14657v1
- Date: Fri, 30 Dec 2022 12:39:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 15:20:31.377087
- Title: Linear programming word problems formulation using EnsembleCRF NER
labeler and T5 text generator with data augmentations
- Title(参考訳): EnsembleCRF NERラベルとデータ拡張付きT5テキストジェネレータを用いた線形プログラミング語問題定式化
- Authors: JiangLong He, Mamatha N, Shiv Vignesh, Deepak Kumar, Akshay Uppal
- Abstract要約: 線形プログラム語問題におけるラベル予測のためのアンサンブル手法を提案する。
実体識別と意味表現は、NL4Optコンペティションで解決すべき2種類のタスクである。
- 参考スコア(独自算出の注目度): 1.5302185525262384
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We propose an ensemble approach to predict the labels in linear programming
word problems. The entity identification and the meaning representation are two
types of tasks to be solved in the NL4Opt competition. We propose the
ensembleCRF method to identify the named entities for the first task. We found
that single models didn't improve for the given task in our analysis. A set of
prediction models predict the entities. The generated results are combined to
form a consensus result in the ensembleCRF method. We present an ensemble text
generator to produce the representation sentences for the second task. We
thought of dividing the problem into multiple small tasks due to the overflow
in the output. A single model generates different representations based on the
prompt. All the generated text is combined to form an ensemble and produce a
mathematical meaning of a linear programming problem.
- Abstract(参考訳): 線形プログラム語問題におけるラベル予測のためのアンサンブル手法を提案する。
実体識別と意味表現は、NL4Optコンペティションで解決すべき2種類のタスクである。
本稿では,最初のタスクに対して名前付きエンティティを識別するアンサンブルCRF法を提案する。
分析の結果、与えられたタスクに対して単一のモデルが改善しないことがわかりました。
一連の予測モデルがエンティティを予測します。
生成された結果を組み合わせて、アンサンブルCRF法でコンセンサス結果を生成する。
第2タスクの表現文を生成するために,アンサンブルテキスト生成器を提案する。
出力のオーバーフローのため、問題を複数の小さなタスクに分割しようと考えた。
単一のモデルはプロンプトに基づいて異なる表現を生成する。
生成された全てのテキストは結合してアンサンブルを形成し、線形計画問題の数学的意味を生成する。
関連論文リスト
- Multi-head Sequence Tagging Model for Grammatical Error Correction [31.538895931875565]
文法的誤り訂正(英: Grammatical Error Correction, GEC)は、ソースシーケンスとターゲットシーケンスのマッピングである。
現在のシーケンスタギングアプローチでは、あるタスクにレーザーを集中させることで、幅広い文法的誤りを処理できるという問題がある。
本稿では,学習データを効果的に活用し,関連する課題訓練信号からの情報を活用するための,新しいマルチヘッド・マルチタスク学習モデルを提案する。
論文 参考訳(メタデータ) (2024-10-21T20:01:06Z) - List-aware Reranking-Truncation Joint Model for Search and
Retrieval-augmented Generation [80.12531449946655]
本稿では,2つのタスクを同時に実行可能なRe rank-Truncation joint model(GenRT)を提案する。
GenRTは、エンコーダ-デコーダアーキテクチャに基づく生成パラダイムによるリランクとトランケーションを統合している。
提案手法は,Web検索および検索拡張LLMにおけるリランクタスクとトラルケーションタスクの両方においてSOTA性能を実現する。
論文 参考訳(メタデータ) (2024-02-05T06:52:53Z) - GEC-DePenD: Non-Autoregressive Grammatical Error Correction with
Decoupled Permutation and Decoding [52.14832976759585]
文法的誤り訂正(GEC)は、通常自己回帰的なシーケンス・ツー・シーケンスモデルで解決される重要なNLPタスクである。
本稿では, アーキテクチャを置換ネットワークに分離する, GEC に対する非自己回帰的アプローチを提案する。
GECの既知の非自己回帰手法よりもネットワークが向上することを示す。
論文 参考訳(メタデータ) (2023-11-14T14:24:36Z) - IUTEAM1 at MEDIQA-Chat 2023: Is simple fine tuning effective for
multilayer summarization of clinical conversations? [0.0]
本稿では, 要約モデルアンサンブルアプローチを解析し, グラフノートと呼ばれる医療報告の総合的精度を向上させる。
実験の結果,各セクションに特化しているモデルのアンサンブルは,より優れた結果をもたらすが,多層/ステージアプローチでは精度が向上しないことがわかった。
論文 参考訳(メタデータ) (2023-06-07T10:47:33Z) - A Sequence-to-Sequence&Set Model for Text-to-Table Generation [35.65374526264392]
本稿では,新しいシーケンス・ツー・シーケンス・セットのテキスト・ツー・テーブル生成モデルを提案する。
具体的には、まず、ほとんどの行の生成が順序に敏感であることを示す予備的な研究を行う。
実験結果から,本モデルがベースラインをはるかに上回ることがわかった。
論文 参考訳(メタデータ) (2023-05-31T19:28:00Z) - Thutmose Tagger: Single-pass neural model for Inverse Text Normalization [76.87664008338317]
逆テキスト正規化(ITN)は自動音声認識において重要な後処理ステップである。
本稿では,ITN例の粒度アライメントに基づくデータセット作成手法を提案する。
タグと入力語との1対1対応により、モデルの予測の解釈性が向上する。
論文 参考訳(メタデータ) (2022-07-29T20:39:02Z) - Syntax-Aware Network for Handwritten Mathematical Expression Recognition [53.130826547287626]
手書き数式認識(HMER)は、多くの潜在的な応用が可能な課題である。
HMERの最近の手法はエンコーダ・デコーダアーキテクチャで優れた性能を実現している。
本稿では,構文情報をエンコーダ・デコーダネットワークに組み込んだHMERの簡易かつ効率的な手法を提案する。
論文 参考訳(メタデータ) (2022-03-03T09:57:19Z) - HETFORMER: Heterogeneous Transformer with Sparse Attention for Long-Text
Extractive Summarization [57.798070356553936]
HETFORMERはトランスフォーマーをベースとした事前学習モデルであり、抽出要約のための多粒度スパースアテンションを持つ。
単一文書と複数文書の要約タスクの実験から,HETFORMERがルージュF1の最先端性能を達成することが示された。
論文 参考訳(メタデータ) (2021-10-12T22:42:31Z) - Generating Diverse Descriptions from Semantic Graphs [38.28044884015192]
アンデコーダモデルに潜在変数を組み込んだグラフ・トゥ・テキストモデルとそのアンサンブルでの使用について述べる。
我々は,様々な文の集合を生成するモデル群を,最先端のモデルに類似した品質を維持しながら示す。
我々は、WebNLGのデータセットを英語とロシア語で評価し、様々な文の集合を生成するモデルの集合を示すとともに、最先端のモデルに類似した品質を維持している。
論文 参考訳(メタデータ) (2021-08-12T11:00:09Z) - Model Fusion with Kullback--Leibler Divergence [58.20269014662046]
異種データセットから学習した後続分布を融合する手法を提案する。
我々のアルゴリズムは、融合モデルと個々のデータセット後部の両方に対する平均場仮定に依存している。
論文 参考訳(メタデータ) (2020-07-13T03:27:45Z) - Word Embedding-based Text Processing for Comprehensive Summarization and
Distinct Information Extraction [1.552282932199974]
オンラインレビューの分析に特化して設計された2つの自動テキスト処理フレームワークを提案する。
最初のフレームワークは、本質的な文章を抽出してレビューデータセットを要約することである。
第2のフレームワークは、複数の異なる質問に対する回答を抽出するように訓練された質問回答ニューラルネットワークモデルに基づいている。
論文 参考訳(メタデータ) (2020-04-21T02:43:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。