論文の概要: Towards the interoperability of low-code platforms
- arxiv url: http://arxiv.org/abs/2412.05075v1
- Date: Fri, 06 Dec 2024 14:33:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-09 15:57:12.966896
- Title: Towards the interoperability of low-code platforms
- Title(参考訳): ローコードプラットフォームの相互運用性を目指して
- Authors: Iván Alfonso, Aaron Conrardy, Jordi Cabot,
- Abstract要約: ローコードプラットフォーム (LCP) は様々な産業で普及している。
特にこれらのプラットフォーム間の相互運用性の欠如を考えると、ベンダのロックインは大きな懸念事項である。
本研究では、あるプラットフォームで指定されたモデルから別のプラットフォームへ(半)自律的に移行することで、LCPの相互運用性を改善するアプローチを提案する。
- 参考スコア(独自算出の注目度): 1.7450893625541586
- License:
- Abstract: With the promise of accelerating software development, low-code platforms (LCPs) are becoming popular across various industries. Nevertheless, there are still barriers hindering their adoption. Among them, vendor lock-in is a major concern, especially considering the lack of interoperability between these platforms. Typically, after modeling an application in one LCP, migrating to another requires starting from scratch remodeling everything (the data model, the graphical user interface, workflows, etc.), in the new platform. To overcome this situation, this work proposes an approach to improve the interoperability of LCPs by (semi)automatically migrating models specified in one platform to another one. The concrete migration path depends on the capabilities of the source and target tools. We first analyze popular LCPs, characterize their import and export alternatives and define transformations between those data formats when available. This is then complemented with an LLM-based solution, where image recognition features of large language models are employed to migrate models based on a simple image export of the model at hand. The full pipelines are implemented on top of the BESSER modeling framework that acts as a pivot representation between the tools.
- Abstract(参考訳): ソフトウェア開発の加速という約束により、ローコードプラットフォーム(LCP)は様々な業界で人気を集めている。
それでも、採用を妨げる障壁は残っている。
特にこれらのプラットフォーム間の相互運用性の欠如を考えると、ベンダのロックインは大きな懸念事項である。
通常、あるLCPでアプリケーションをモデリングした後、新しいプラットフォームですべてのもの(データモデル、グラフィカルユーザインターフェース、ワークフローなど)をスクラッチから別のプラットフォームに移行する必要があります。
この状況を克服するために,本研究では,あるプラットフォームで指定されたモデルから別のプラットフォームへの自動移行により,LCPの相互運用性を改善するアプローチを提案する。
具体的なマイグレーションパスは、ソースとターゲットツールの能力に依存する。
まず、人気のあるLCPを分析し、その代替品のインポートとエクスポートを特徴付け、利用可能なデータフォーマット間の変換を定義します。
その後、LLMベースのソリューションで補完され、大きな言語モデルの画像認識機能を使用して、手元にあるモデルの単純なイメージエクスポートに基づいてモデルを移行する。
完全なパイプラインは、ツール間のピボット表現として機能するBESSERモデリングフレームワーク上に実装されている。
関連論文リスト
- Matchmaker: Self-Improving Large Language Model Programs for Schema Matching [60.23571456538149]
本稿では,スキーママッチングのための合成言語モデルプログラムを提案する。
Matchmakerは、ラベル付きデモを必要とせずに、ゼロショットで自己改善する。
実証的に、Matchmakerが以前のMLベースのアプローチより優れている実世界の医療スキーママッチングベンチマークを実証する。
論文 参考訳(メタデータ) (2024-10-31T16:34:03Z) - The Compressor-Retriever Architecture for Language Model OS [20.56093501980724]
オペレーティングシステム(OS)のコアコンポーネントとして言語モデルを用いるという概念について検討する。
このようなLM OSを実現する上で重要な課題は、寿命の長いコンテキストを管理し、セッション間のステートフルネスを確保することだ。
本稿では,生涯のコンテキスト管理のために設計されたモデル非依存アーキテクチャであるコンプレッサー・レトリバーを紹介する。
論文 参考訳(メタデータ) (2024-09-02T23:28:15Z) - Unlocking the Potential of Model Merging for Low-Resource Languages [66.7716891808697]
大規模言語モデルを新しい言語に適応させるには、通常、継続事前訓練(CT)と、教師付き微調整(SFT)が含まれる。
我々は低リソース言語の代替としてモデルマージを提案し、異なる機能を持つモデルを追加トレーニングなしで単一のモデルに組み合わせる。
Llama-2-7Bをベースとした実験により、モデルマージはタスク解決能力の低い低リソース言語に対して、極めて少ないデータを持つシナリオにおいて、CT-then-SFTよりも優れていることが実証された。
論文 参考訳(メタデータ) (2024-07-04T15:14:17Z) - Transformer Architecture for NetsDB [0.0]
我々はNetsDBで機能するディープラーニングモデルのためのトランスフォーマーのエンドツーエンド実装を作成します。
分散処理、デプロイメント、効率的な推論のために、当社のモデルから重みをロードします。
論文 参考訳(メタデータ) (2024-05-08T04:38:36Z) - From Image to UML: First Results of Image Based UML Diagram Generation Using LLMs [1.961305559606562]
ソフトウェア工学のプロセスでは、システムはまずモデリング言語を使って指定される。
大規模言語モデル(LLM)は、与えられた図面からUMLモデルの形式表現を生成するために使用される。
より具体的には、クラス図の画像を画像に表される実際のモデルに変換するための異なるLCMの能力を評価した。
論文 参考訳(メタデータ) (2024-04-17T13:33:11Z) - Emerging Platforms Meet Emerging LLMs: A Year-Long Journey of Top-Down Development [20.873143073842705]
TapMLは、さまざまなプラットフォームへの機械学習システムのデプロイを合理化するために設計された、トップダウンのアプローチとツーリングである。
従来のボトムアップメソッドとは異なり、TapMLはユニットテストを自動化し、徐々にモデルの計算をオフロードするためのマイグレーションベースの戦略を採用する。
TapMLは1年間にわたる現実世界の取り組みを通じて開発され、重要な新興モデルやプラットフォームをデプロイすることに成功しました。
論文 参考訳(メタデータ) (2024-04-14T06:09:35Z) - Adapting Large Language Models for Content Moderation: Pitfalls in Data
Engineering and Supervised Fine-tuning [79.53130089003986]
大規模言語モデル(LLM)は、様々なドメインでタスクを処理するための実現可能なソリューションとなっている。
本稿では、コンテンツモデレーションのためにプライベートにデプロイ可能なLLMモデルを微調整する方法を紹介する。
論文 参考訳(メタデータ) (2023-10-05T09:09:44Z) - Recommender AI Agent: Integrating Large Language Models for Interactive
Recommendations [53.76682562935373]
我々は,LLMを脳として,レコメンダモデルをツールとして使用する,textbfInteRecAgentという効率的なフレームワークを紹介した。
InteRecAgentは会話レコメンデーションシステムとして満足度を達成し、汎用LLMよりも優れる。
論文 参考訳(メタデータ) (2023-08-31T07:36:44Z) - Incremental Model Transformations with Triple Graph Grammars for
Multi-version Models [1.6371451481715191]
本稿では,ソースモデルの複数バージョンを対象モデルの対応するバージョンに変換する手法を提案する。
我々のアプローチは、トリプルグラフ文法のよく知られた形式主義と、マルチバージョンモデルと呼ばれるモデルバージョン履歴の符号化に基づいている。
論文 参考訳(メタデータ) (2023-07-05T08:26:18Z) - Switchable Representation Learning Framework with Self-compatibility [50.48336074436792]
自己整合性(SFSC)を考慮した交換可能な表現学習フレームワークを提案する。
SFSCは1つのトレーニングプロセスを通じて、異なる能力を持つ一連の互換性のあるサブモデルを生成する。
SFSCは評価データセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-06-16T16:46:32Z) - A Bayesian Federated Learning Framework with Online Laplace
Approximation [144.7345013348257]
フェデレートラーニングは、複数のクライアントが協力してグローバルに共有されたモデルを学ぶことを可能にする。
クライアント側とサーバ側の両方の後方部を近似するために,オンラインラプラス近似を用いた新しいFLフレームワークを提案する。
提案手法の利点を実証し,いくつかのベンチマークで最新の結果を得た。
論文 参考訳(メタデータ) (2021-02-03T08:36:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。