論文の概要: FLOW-BENCH: Towards Conversational Generation of Enterprise Workflows
- arxiv url: http://arxiv.org/abs/2505.11646v1
- Date: Fri, 16 May 2025 19:14:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:10.761905
- Title: FLOW-BENCH: Towards Conversational Generation of Enterprise Workflows
- Title(参考訳): FLOW-BENCH:エンタープライズワークフローの会話生成に向けて
- Authors: Evelyn Duesterwald, Siyu Huo, Vatche Isahagian, K. R. Jayaram, Ritesh Kumar, Vinod Muthusamy, Punleuk Oum, Debashish Saha, Gegi Thomas, Praveen Venkateswaran,
- Abstract要約: 本稿では,(i)FLOW-BENCH,(i)FLOW-BENCH,(i)NLベースのBPAツールを評価するための高品質な自然言語命令と構造化ビジネスプロセス定義のデータセット,(ii)FLOW-GEN,(ii)LLMを用いて自然言語をPython構文の中間表現に変換するアプローチについて述べる。
- 参考スコア(独自算出の注目度): 8.94997247808258
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Business process automation (BPA) that leverages Large Language Models (LLMs) to convert natural language (NL) instructions into structured business process artifacts is becoming a hot research topic. This paper makes two technical contributions -- (i) FLOW-BENCH, a high quality dataset of paired natural language instructions and structured business process definitions to evaluate NL-based BPA tools, and support bourgeoning research in this area, and (ii) FLOW-GEN, our approach to utilize LLMs to translate natural language into an intermediate representation with Python syntax that facilitates final conversion into widely adopted business process definition languages, such as BPMN and DMN. We bootstrap FLOW-BENCH by demonstrating how it can be used to evaluate the components of FLOW-GEN across eight LLMs of varying sizes. We hope that FLOW-GEN and FLOW-BENCH catalyze further research in BPA making it more accessible to novice and expert users.
- Abstract(参考訳): 大規模言語モデル(LLM)を活用して、自然言語(NL)命令を構造化ビジネスプロセスアーティファクトに変換するビジネスプロセス自動化(BPA)は、ホットな研究トピックになりつつある。
本論文は2つの技術的貢献を行う。
(i)FLOW-BENCHは、NLベースのBPAツールを評価するために、ペア自然言語命令と構造化ビジネスプロセス定義の高品質データセットであり、この分野におけるブルジョニング研究を支援する。
(II)FLOW-GEN,LLMを用いて自然言語をPython構文の中間表現に変換するアプローチにより、BPMNやDMNといった広く採用されているビジネスプロセス定義言語への最終変換が容易になる。
我々はFLOW-BENCHをブートストラップし、FLOW-GENの構成要素を異なるサイズの8つのLLMで評価する方法を実証した。
FLOW-GENとFLOW-BENCHがBPAのさらなる研究を触媒し、初心者や専門家にとってよりアクセスしやすいものにすることを願っている。
関連論文リスト
- Langformers: Unified NLP Pipelines for Language Models [3.690904966341072]
LangformersはオープンソースのPythonライブラリで、NLPパイプラインを合理化するように設計されている。
会話型AI、事前学習、テキスト分類、文の埋め込み/更新、データラベリング、セマンティック検索、知識蒸留を結合型APIに統合する。
論文 参考訳(メタデータ) (2025-04-12T10:17:49Z) - In-Context Ensemble Learning from Pseudo Labels Improves Video-Language Models for Low-Level Workflow Understanding [0.32248482136498435]
標準運用手順は、ビジネスソフトウェアワークフローのための低レベルのステップバイステップのガイドを定義する。
近年の大規模ビデオ言語モデルの進歩は、人間の実演記録を解析することにより、SOP生成を自動化する可能性を秘めている。
本研究では,SOP生成のためのビデオ言語モデルを用いたインコンテキスト学習について検討する。
論文 参考訳(メタデータ) (2024-09-24T08:41:01Z) - Leveraging Large Language Models for Enhanced Process Model Comprehension [33.803742664323856]
ビジネスプロセスマネジメント(BPM)では、効果的にプロセスモデルを理解することが重要であるが、重大な課題を生じさせる。
本稿では,Large Language Models(LLM)の高度な機能を活用し,複雑なプロセスモデルの解釈可能性を高める新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-08T13:12:46Z) - Large Language Models are Interpretable Learners [53.56735770834617]
本稿では,Large Language Models(LLM)とシンボルプログラムの組み合わせによって,表現性と解釈可能性のギャップを埋めることができることを示す。
自然言語プロンプトを持つ事前訓練されたLLMは、生の入力を自然言語の概念に変換することができる解釈可能な膨大なモジュールセットを提供する。
LSPが学んだ知識は自然言語の記述と記号規則の組み合わせであり、人間(解釈可能)や他のLLMに容易に転送できる。
論文 参考訳(メタデータ) (2024-06-25T02:18:15Z) - CMULAB: An Open-Source Framework for Training and Deployment of Natural Language Processing Models [59.91221728187576]
本稿では,NLPモデルのモデル展開と連続的なヒューマン・イン・ザ・ループの微調整を簡単にするオープンソースフレームワークであるCMU言語バックエンドを紹介する。
CMULABは、マルチ言語モデルのパワーを活用して、音声認識、OCR、翻訳、構文解析などの既存のツールを新しい言語に迅速に適応し、拡張することができる。
論文 参考訳(メタデータ) (2024-04-03T02:21:46Z) - Machine Translation with Large Language Models: Prompt Engineering for
Persian, English, and Russian Directions [0.0]
生成型大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクにおいて、例外的な習熟性を示している。
我々は,ペルシャ語,英語,ロシア語の言語間組み合わせに着目した2つの普及促進手法とその組み合わせについて調査を行った。
論文 参考訳(メタデータ) (2024-01-16T15:16:34Z) - Natural Language Processing for Dialects of a Language: A Survey [56.93337350526933]
最先端自然言語処理(NLP)モデルは、大規模なトレーニングコーパスでトレーニングされ、評価データセットで最上位のパフォーマンスを報告します。
この調査は、これらのデータセットの重要な属性である言語の方言を掘り下げる。
方言データセットにおけるNLPモデルの性能劣化と言語技術のエクイティへのその影響を動機として,我々はデータセットやアプローチの観点から,方言に対するNLPの過去の研究を調査した。
論文 参考訳(メタデータ) (2024-01-11T03:04:38Z) - Let Models Speak Ciphers: Multiagent Debate through Embeddings [84.20336971784495]
この問題を解決するためにCIPHER(Communicative Inter-Model Protocol Through Embedding Representation)を導入する。
自然言語から逸脱することで、CIPHERはモデルの重みを変更することなく、より広い範囲の情報を符号化する利点を提供する。
このことは、LLM間の通信における代替の"言語"としての埋め込みの優越性と堅牢性を示している。
論文 参考訳(メタデータ) (2023-10-10T03:06:38Z) - Demonstrate-Search-Predict: Composing retrieval and language models for
knowledge-intensive NLP [77.817293104436]
本稿では,LMとRMの間の洗練されたパイプラインにおいて,自然言語テキストを渡すことに依存するフレームワークを提案する。
我々は、オープンドメイン、マルチホップ、会話設定で質問に答えるための新しいDSPプログラムを作成した。
論文 参考訳(メタデータ) (2022-12-28T18:52:44Z) - FedNLP: A Research Platform for Federated Learning in Natural Language
Processing [55.01246123092445]
NLPのフェデレーションラーニングのための研究プラットフォームであるFedNLPを紹介します。
FedNLPは、テキスト分類、シーケンスタグ付け、質問応答、Seq2seq生成、言語モデリングなど、NLPで一般的なタスクの定式化をサポートしている。
FedNLPによる予備実験では、分散型データセットと集中型データセットの学習には大きなパフォーマンスギャップが存在することが明らかになった。
論文 参考訳(メタデータ) (2021-04-18T11:04:49Z) - Universal Sentence Representation Learning with Conditional Masked
Language Model [7.334766841801749]
文表現を効果的に学習するための条件付きマスク言語モデリング(M)を提案する。
我々の英語CMLMモデルは,SentEvalの最先端性能を実現する。
完全に教師なしの学習方法として、CMLMは幅広い言語やドメインに便利に拡張できます。
論文 参考訳(メタデータ) (2020-12-28T18:06:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。