論文の概要: Business Process Text Sketch Automation Generation Using Large Language
Model
- arxiv url: http://arxiv.org/abs/2309.01071v1
- Date: Sun, 3 Sep 2023 04:19:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 23:28:17.256954
- Title: Business Process Text Sketch Automation Generation Using Large Language
Model
- Title(参考訳): 大規模言語モデルを用いたビジネスプロセステキスト自動生成
- Authors: Rui Zhu, Quanzhou Hu, Wenxin Li, Honghao Xiao, Chaogang Wang, Zixin
Zhou
- Abstract要約: 大規模言語モデル(LLM)を用いた条件付きプロセスツリー(CPT)をビジネスプロセステキストスケッチ(BPTS)に変換する手法を提案する。
従来のプロンプト法よりも45.17%よい93.42%の正解率が得られる。
- 参考スコア(独自算出の注目度): 3.4908441669883117
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Business Process Management (BPM) is gaining increasing attention as it has
the potential to cut costs while boosting output and quality. Business process
document generation is a crucial stage in BPM. However, due to a shortage of
datasets, data-driven deep learning techniques struggle to deliver the expected
results. We propose an approach to transform Conditional Process Trees (CPTs)
into Business Process Text Sketches (BPTSs) using Large Language Models (LLMs).
The traditional prompting approach (Few-shot In-Context Learning) tries to get
the correct answer in one go, and it can find the pattern of transforming
simple CPTs into BPTSs, but for close-domain and CPTs with complex hierarchy,
the traditional prompts perform weakly and with low correctness. We suggest
using this technique to break down a difficult CPT into a number of basic CPTs
and then solve each one in turn, drawing inspiration from the
divide-and-conquer strategy. We chose 100 process trees with depths ranging
from 2 to 5 at random, as well as CPTs with many nodes, many degrees of
selection, and cyclic nesting. Experiments show that our method can achieve a
correct rate of 93.42%, which is 45.17% better than traditional prompting
methods. Our proposed method provides a solution for business process document
generation in the absence of datasets, and secondly, it becomes potentially
possible to provide a large number of datasets for the process model extraction
(PME) domain.
- Abstract(参考訳): ビジネスプロセス管理(BPM)は、生産と品質を高めながらコストを削減できる可能性があるため、注目を集めています。
ビジネスプロセス文書生成はBPMの重要な段階です。
しかし、データセットが不足しているため、データ駆動のディープラーニング技術は期待される結果を提供するのに苦労する。
本稿では,条件付きプロセスツリー(CPT)を大規模言語モデル(LLM)を用いてビジネスプロセステキストスケッチ(BPTS)に変換する手法を提案する。
従来のプロンプトアプローチ (few-shot in-context learning) では、正しい回答を1回で取得しようとしており、単純なcptをbptsに変換するパターンを見つけることができるが、複雑な階層を持つクローズドメインとcptでは、従来のプロンプトは弱く、低い正確性で実行する。
この手法を用いて、難易度CPTを複数の基本CPTに分解し、それぞれを次々に解き、分割・分散戦略からインスピレーションを得るよう提案する。
ランダムに2から5までの深さを持つ100のプロセスツリーと、多くのノードを持つCPT、多くの選択度、循環ネストを選択しました。
実験の結果,従来のプロンプト法よりも45.17%よい93.42%の正解率が得られることがわかった。
提案手法は,データセットの欠如によるビジネスプロセス文書生成のソリューションを提供し,第2に,プロセスモデル抽出(PME)ドメインに多数のデータセットを提供することが可能である。
関連論文リスト
- Context-aware Prompt Tuning: Advancing In-Context Learning with Adversarial Methods [69.36397993451742]
In this work introduced Context-aware Prompt Tuning (CPT) - ICL, PT, and adversarial attack。
入力および出力フォーマットのユニークな構造を考慮して、特定のコンテキストトークンを変更する。
敵の攻撃にインスパイアされた我々は、損失を最大化するのではなく、最小化に焦点をあてて、コンテキストに存在するラベルに基づいて入力を調整する。
論文 参考訳(メタデータ) (2024-10-22T17:45:47Z) - A Novel Two-Step Fine-Tuning Pipeline for Cold-Start Active Learning in Text Classification Tasks [7.72751543977484]
本研究は, 寒冷開始シナリオにおけるアクティブラーニング(AL)タスクにおけるBERTベースのコンテキスト埋め込みの有効性について検討する。
私たちの主な貢献は、より堅牢な微調整パイプラインであるDoTCALの提案です。
本評価では,Bag of Words (BoW), Latent Semantic Indexing (LSI), FastTextなど,BERTベースの埋め込みと他の一般的なテキスト表現パラダイムとの対比を行った。
論文 参考訳(メタデータ) (2024-07-24T13:50:21Z) - Evaluating and Improving Tool-Augmented Computation-Intensive Math
Reasoning [75.74103236299477]
CoT(Chain-of- Thought prompting)とツール拡張は、大きな言語モデルを改善するための効果的なプラクティスとして検証されている。
ツールインターフェース,すなわち textbfDELI を用いた推論ステップを考慮に入れた新しい手法を提案する。
CARPと他の6つのデータセットの実験結果から、提案されたDELIは、主に競合ベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-06-04T17:02:59Z) - ProcessGPT: Transforming Business Process Management with Generative
Artificial Intelligence [37.63134810192718]
Generative Pre-trained Transformer (GPT)は、自然言語処理(NLP)を通じて人間のようなテキストを生成することができる最先端の機械学習モデルである。
ProcessGPTは、ビジネスプロセスデータの大規模なデータセット上で、生成事前訓練されたトランスフォーマーモデルをトレーニングすることによって設計することができる。
このモデルは、NLPや機械学習技術と統合して、プロセス改善のための洞察とレコメンデーションを提供することができる。
論文 参考訳(メタデータ) (2023-05-29T02:27:46Z) - Bag of Tricks for Training Data Extraction from Language Models [98.40637430115204]
公開データセットを用いてトレーニングデータ抽出を改善するための手法とベンチマーク手法について検討する。
実験結果から,これまで見過ごされていたいくつかのトリックが,トレーニングデータ抽出の成功に不可欠であることが示唆された。
論文 参考訳(メタデータ) (2023-02-09T06:46:42Z) - Instance-wise Prompt Tuning for Pretrained Language Models [72.74916121511662]
インスタンスワイドのPrompt Tuning(IPT)は、入力データインスタンスからプロンプトに知識を注入する最初のプロンプト学習パラダイムである。
IPTはタスクベースのプロンプト学習法を著しく上回り、調律パラメータのわずか0.5%から1.5%で従来の微調整に匹敵する性能を達成している。
論文 参考訳(メタデータ) (2022-06-04T10:08:50Z) - Learning a Better Initialization for Soft Prompts via Meta-Learning [58.53984967461313]
本稿では,プロンプトチューニングを改善するメタPT(Meta-learned Prompt Tuning)を提案する。
まず、事前学習したデータを異なる補助タスクにクラスタリングすることで、その構造を導入する。
これらのタスクをメタ学習アルゴリズムでプロンプトの事前学習に使用する。
論文 参考訳(メタデータ) (2022-05-25T03:50:23Z) - Data-to-Value: An Evaluation-First Methodology for Natural Language
Projects [3.9378507882929554]
Data to Value"(D2V)は、ビッグデータテキスト分析プロジェクトのための新しい方法論である。
ビッグデータテキスト分析プロジェクトチームとトピック間の切断を避けるため、質問の詳細なカタログでガイドされている。
論文 参考訳(メタデータ) (2022-01-19T17:04:52Z) - One-shot Key Information Extraction from Document with Deep Partial
Graph Matching [60.48651298832829]
ドキュメントからキー情報抽出(KIE)は、多くの産業シナリオにおいて効率、生産性、セキュリティを改善する。
KIEタスクのための既存の教師付き学習手法は、多数のラベル付きサンプルを供給し、異なる種類の文書の別々のモデルを学ぶ必要がある。
部分グラフマッチングを用いたワンショットKIEのためのディープエンド・ツー・エンド・トレーニング可能なネットワークを提案する。
論文 参考訳(メタデータ) (2021-09-26T07:45:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。