論文の概要: A Case for Business Process-Specific Foundation Models
- arxiv url: http://arxiv.org/abs/2210.14739v1
- Date: Wed, 26 Oct 2022 14:17:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 13:02:47.979755
- Title: A Case for Business Process-Specific Foundation Models
- Title(参考訳): ビジネスプロセス固有の基礎モデルの事例
- Authors: Yara Rizk, Praveen Venkateswaran, Vatche Isahagian, Vinod Muthusamy
- Abstract要約: ビジネスプロセスデータ表現には,新たな基盤モデルの開発を保証できるユニークな特徴がある,と我々は主張する。
これらのモデルは、データ不足、マルチモーダル表現、ドメイン固有の用語、プライバシに関する懸念を含む、ビジネスプロセスにAIを適用するというユニークな課題に取り組む必要がある。
- 参考スコア(独自算出の注目度): 6.25118865553438
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The inception of large language models has helped advance state-of-the-art
performance on numerous natural language tasks. This has also opened the door
for the development of foundation models for other domains and data modalities
such as images, code, and music. In this paper, we argue that business process
data representations have unique characteristics that warrant the development
of a new class of foundation models to handle tasks like process mining,
optimization, and decision making. These models should also tackle the unique
challenges of applying AI to business processes which include data scarcity,
multi-modal representations, domain specific terminology, and privacy concerns.
- Abstract(参考訳): 大規模言語モデルの導入は、多くの自然言語タスクにおける最先端のパフォーマンス向上に役立っている。
これはまた、他のドメインや画像、コード、音楽などのデータモダリティのための基礎モデルを開発するための扉を開いた。
本稿では,ビジネスプロセスデータ表現には,プロセスマイニングや最適化,意思決定といったタスクに対処する新たな基盤モデルの開発を保証するユニークな特徴がある,と論じる。
これらのモデルはまた、データ不足、マルチモーダル表現、ドメイン固有の用語、プライバシに関する懸念を含む、ビジネスプロセスにAIを適用するというユニークな課題に取り組む必要がある。
関連論文リスト
- An overview of domain-specific foundation model: key technologies, applications and challenges [25.146374189455784]
この記事では、ドメイン固有の基礎モデルをカスタマイズするための方法論について、タイムリーかつ網羅的に概説する。
基本的な概念を導入し、一般的なアーキテクチャの概要を説明し、ドメイン固有のモデルを構築するための重要な方法を調査します。
論文 参考訳(メタデータ) (2024-09-06T13:24:22Z) - HEMM: Holistic Evaluation of Multimodal Foundation Models [91.60364024897653]
マルチモーダル・ファンデーション・モデルは、画像、ビデオ、オーディオ、その他の知覚モダリティと共にテキストをホリスティックに処理することができる。
モデリング決定、タスク、ドメインの範囲を考えると、マルチモーダル基盤モデルの進歩を特徴づけ、研究することは困難である。
論文 参考訳(メタデータ) (2024-07-03T18:00:48Z) - Adapting Large Language Models for Content Moderation: Pitfalls in Data
Engineering and Supervised Fine-tuning [79.53130089003986]
大規模言語モデル(LLM)は、様々なドメインでタスクを処理するための実現可能なソリューションとなっている。
本稿では、コンテンツモデレーションのためにプライベートにデプロイ可能なLLMモデルを微調整する方法を紹介する。
論文 参考訳(メタデータ) (2023-10-05T09:09:44Z) - Generative AI for Business Strategy: Using Foundation Models to Create
Business Strategy Tools [0.7784248206747153]
ビジネス意思決定における基礎モデルの利用を提案する。
私たちは、署名されたビジネスネットワークの出現という形で、ITアーティファクトを導き出します。
このようなアーティファクトは、市場の状態と自身のポジションについて、ビジネスステークホルダーに通知することができる。
論文 参考訳(メタデータ) (2023-08-27T19:03:12Z) - UniDiff: Advancing Vision-Language Models with Generative and
Discriminative Learning [86.91893533388628]
本稿では、画像テキストコントラスト学習(ITC)、テキスト条件付き画像合成学習(IS)、相互意味整合性モデリング(RSC)を統合した統合マルチモーダルモデルUniDiffを提案する。
UniDiffはマルチモーダル理解と生成タスクの両方において汎用性を示す。
論文 参考訳(メタデータ) (2023-06-01T15:39:38Z) - Beyond Rule-based Named Entity Recognition and Relation Extraction for
Process Model Generation from Natural Language Text [0.0]
既存のパイプラインを拡張して、完全にデータ駆動にします。
改善されたパイプラインの競争力を示す。これは、機能エンジニアリングとルール定義に関連するかなりのオーバーヘッドを取り除くだけでなく、改善されたパイプラインの競争力も排除します。
本稿では,言語参照に関する情報を取り入れたPETデータセットの拡張と,それを解決する方法を提案する。
論文 参考訳(メタデータ) (2023-05-06T07:06:47Z) - Scaling Vision-Language Models with Sparse Mixture of Experts [128.0882767889029]
提案手法は, 等価計算コストの高密度モデルに対して, 様々なベンチマークにおいて, 最先端性能を実現することができることを示す。
我々の研究は、MoEモデルのトレーニングの安定化、モデル解釈可能性に対するMoEの影響の理解、ビジョン言語モデルをスケールする際の計算性能間のトレードオフのバランスに関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2023-03-13T16:00:31Z) - Foundation Models for Decision Making: Problems, Methods, and
Opportunities [124.79381732197649]
大規模に多様なデータに基づいて事前訓練された基礎モデルは、幅広いビジョンと言語タスクにおいて異常な能力を示してきた。
ファンデーションモデルをトレーニングし、他のエージェントと対話し、長期的な推論を行うための新しいパラダイムが生まれている。
基礎モデルと意思決定の交わりにおける研究は、強力な新しいシステムを作るための大きな約束である。
論文 参考訳(メタデータ) (2023-03-07T18:44:07Z) - Foundation models in brief: A historical, socio-technical focus [2.5991265608180396]
ディープラーニングをスケールアップすることで、将来のAI開発には、ファンデーションモデルが破壊的になる可能性がある。
モデルは自然言語処理やコンピュータビジョンといった分野における様々なタスクにおいて最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-12-17T22:11:33Z) - Model Reprogramming: Resource-Efficient Cross-Domain Machine Learning [65.268245109828]
視覚、言語、音声などのデータに富む領域では、ディープラーニングが高性能なタスク固有モデルを提供するのが一般的である。
リソース制限されたドメインでのディープラーニングは、(i)限られたデータ、(ii)制約付きモデル開発コスト、(iii)効果的な微調整のための適切な事前学習モデルの欠如など、多くの課題に直面している。
モデル再プログラミングは、ソースドメインから十分に訓練されたモデルを再利用して、モデル微調整なしでターゲットドメインのタスクを解くことで、リソース効率のよいクロスドメイン機械学習を可能にする。
論文 参考訳(メタデータ) (2022-02-22T02:33:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。