論文の概要: NLP4PBM: A Systematic Review on Process Extraction using Natural Language Processing with Rule-based, Machine and Deep Learning Methods
- arxiv url: http://arxiv.org/abs/2409.13738v1
- Date: Tue, 10 Sep 2024 15:16:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 05:35:28.588322
- Title: NLP4PBM: A Systematic Review on Process Extraction using Natural Language Processing with Rule-based, Machine and Deep Learning Methods
- Title(参考訳): NLP4PBM:ルールベース,マシン,ディープラーニングによる自然言語処理によるプロセス抽出の体系的レビュー
- Authors: William Van Woensel, Soroor Motie,
- Abstract要約: 本稿では,自然言語処理(NLP)を用いたテキスト記述の構造化プロセスへの変換という,自動プロセス抽出の分野を概観する。
機械学習 (ML) / ディープラーニング (DL) メソッドが NLP コンポーネントにますます利用されていることが分かりました。
いくつかのケースでは、プロセス抽出に対する適合性から選択され、その結果、古典的なルールベースの手法よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This literature review studies the field of automated process extraction, i.e., transforming textual descriptions into structured processes using Natural Language Processing (NLP). We found that Machine Learning (ML) / Deep Learning (DL) methods are being increasingly used for the NLP component. In some cases, they were chosen for their suitability towards process extraction, and results show that they can outperform classic rule-based methods. We also found a paucity of gold-standard, scalable annotated datasets, which currently hinders objective evaluations as well as the training or fine-tuning of ML / DL methods. Finally, we discuss preliminary work on the application of LLMs for automated process extraction, as well as promising developments in this field.
- Abstract(参考訳): 本稿では,自然言語処理(NLP)を用いてテキスト記述を構造化プロセスに変換する,自動プロセス抽出の分野について検討する。
機械学習 (ML) / ディープラーニング (DL) メソッドが NLP コンポーネントにますます利用されていることが分かりました。
いくつかのケースでは、プロセス抽出に対する適合性から選択され、その結果、古典的なルールベースの手法よりも優れていることが示された。
また、ゴールドスタンダードでスケーラブルなアノテートデータセットの明快さは、ML/DLメソッドのトレーニングや微調整だけでなく、現在客観的評価を妨げている。
最後に,LLMのプロセス自動抽出への応用に関する予備研究と,その分野での有望な開発について論じる。
関連論文リスト
- Understanding In-Context Machine Translation for Low-Resource Languages: A Case Study on Manchu [53.437954702561065]
In-context machine translation (MT) with large language model (LLMs) は低リソースMTにおいて有望な手法である。
本研究では,各資源とその品質が満州語による翻訳性能に与える影響を体系的に検討した。
結果から,良質な辞書や優れた並列例は有用であり,文法はほとんど役に立たないことが明らかとなった。
論文 参考訳(メタデータ) (2025-02-17T14:53:49Z) - Learning Task Representations from In-Context Learning [73.72066284711462]
大規模言語モデル(LLM)は、文脈内学習において顕著な習熟性を示している。
ICLプロンプトにおけるタスク情報をアテンションヘッドの関数として符号化するための自動定式化を導入する。
提案手法の有効性は,最後の隠れ状態の分布と最適に実行されたテキスト内学習モデルとの整合性に起因していることを示す。
論文 参考訳(メタデータ) (2025-02-08T00:16:44Z) - Human Evaluation of Procedural Knowledge Graph Extraction from Text with Large Language Models [0.17476232824732776]
我々は,Large Language Model (LLM) の機能を活用し,ステップ,アクション,オブジェクト,機器,時間情報を抽出するための迅速な工学的アプローチを提案する。
LLM抽出した手続き的知識の質と有用性を質的に定量的に評価するために,ユーザスタディを用いてKG抽出結果を評価した。
論文 参考訳(メタデータ) (2024-11-27T10:36:28Z) - A Universal Prompting Strategy for Extracting Process Model Information from Natural Language Text using Large Language Models [0.8899670429041453]
生成型大規模言語モデル(LLM)は,広範囲なデータを必要とすることなく,非常に高品質なNLPタスクを解くことができることを示す。
新たなプロンプト戦略に基づいて,LLMが最先端の機械学習手法より優れていることを示す。
論文 参考訳(メタデータ) (2024-07-26T06:39:35Z) - TasTe: Teaching Large Language Models to Translate through Self-Reflection [82.83958470745381]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて顕著な性能を示した。
本稿では,自己回帰を通した翻訳を行うTasTeフレームワークを提案する。
WMT22ベンチマークにおける4つの言語方向の評価結果から,既存の手法と比較して,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-06-12T17:21:21Z) - C-ICL: Contrastive In-context Learning for Information Extraction [54.39470114243744]
c-ICLは、正しいサンプル構築と間違ったサンプル構築の両方を活用して、コンテキスト内学習のデモを作成する、新しい数ショット技術である。
各種データセットに対する実験により,c-ICLは従来の数発のインコンテキスト学習法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-02-17T11:28:08Z) - Notes on Applicability of Explainable AI Methods to Machine Learning
Models Using Features Extracted by Persistent Homology [0.0]
永続ホモロジー(PH)は機械学習に広く応用されている。
比較的単純なダウンストリーム機械学習モデルで十分なレベルの精度を達成する能力は、これらの抽出された特徴を処理する際に、パイプラインの優れた解釈可能性の基盤となる。
本稿では,このPH-MLパイプラインへの説明可能なAI手法の適用の可能性について検討する。
論文 参考訳(メタデータ) (2023-10-15T08:56:15Z) - Proving the Potential of Skeleton Based Action Recognition to Automate
the Analysis of Manual Processes [0.0]
本研究は、ビデオストリームに基づいて、手動組立プロセスにおける現在の動作クラスを検出する。
現在の動きに関する情報により、KPI(Key-Performance-Indicators)を容易に導出できる。
この分野では最近、機械ビジョンタスクで大きな成功を収めている。
MLパイプラインを開発し、異なる(事前)処理方法とニューラルネットの広範な研究を可能にする。
論文 参考訳(メタデータ) (2023-10-12T16:11:13Z) - Requirement Formalisation using Natural Language Processing and Machine
Learning: A Systematic Review [11.292853646607888]
我々は,要求工学におけるNLP技術とML技術の現状を概説するために,体系的な文献レビューを行った。
NLPアプローチは、構造化データと半構造化データに対する一次操作である自動RFに使用される最も一般的なNLP手法であることがわかった。
また,本研究では,従来のML技術が研究に大きく貢献する代わりに,Deep Learning(DL)技術が広く用いられていることも明らかにした。
論文 参考訳(メタデータ) (2023-03-18T17:36:21Z) - Efficient Methods for Natural Language Processing: A Survey [76.34572727185896]
本研究は, 効率的なNLPにおける現在の手法と知見を合成し, 関連づけるものである。
我々は,限られた資源下でNLPを実施するためのガイダンスと,より効率的な手法を開発するための有望な研究方向性の両立を目指す。
論文 参考訳(メタデータ) (2022-08-31T20:32:35Z) - Meta Learning for Natural Language Processing: A Survey [88.58260839196019]
ディープラーニングは自然言語処理(NLP)分野において主要な技術である。
ディープラーニングには多くのラベル付きデータが必要です。
メタ学習は、より良いアルゴリズムを学ぶためのアプローチを研究する機械学習の分野である。
論文 参考訳(メタデータ) (2022-05-03T13:58:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。