論文の概要: Contrastive Learning-Enhanced Large Language Models for Monolith-to-Microservice Decomposition
- arxiv url: http://arxiv.org/abs/2502.04604v1
- Date: Fri, 07 Feb 2025 01:37:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-10 14:57:46.862184
- Title: Contrastive Learning-Enhanced Large Language Models for Monolith-to-Microservice Decomposition
- Title(参考訳): モノリスからマイクロサービスへの分解のためのコントラスト学習による大規模言語モデル
- Authors: Khaled Sellami, Mohamed Aymen Saied,
- Abstract要約: モノリシックなアプリケーションは、メンテナンスと改善がますます難しくなり、スケーリングと組織的な問題を引き起こします。
その利点にもかかわらず、モノリシックなアーキテクチャからモノリシックなアーキテクチャに移行するのはコストがかかり複雑であることが多い。
この研究は、分解プロセスを自動化する言語モデルに基づくアプローチであるMonoEmbedを導入することでこの問題に対処する。
- 参考スコア(独自算出の注目度): 0.4297070083645049
- License:
- Abstract: As Monolithic applications evolve, they become increasingly difficult to maintain and improve, leading to scaling and organizational issues. The Microservices architecture, known for its modularity, flexibility and scalability, offers a solution for large-scale applications allowing them to adapt and meet the demand on an ever increasing user base. Despite its advantages, migrating from a monolithic to a microservices architecture is often costly and complex, with the decomposition step being a significant challenge. This research addresses this issue by introducing MonoEmbed, a Language Model based approach for automating the decomposition process. MonoEmbed leverages state-of-the-art Large Language Models (LLMs) and representation learning techniques to generate representation vectors for monolithic components, which are then clustered to form microservices. By evaluating various pre-trained models and applying fine-tuning techniques such as Contrastive Learning and Low Rank Adaptation (LoRA), MonoEmbed aims to optimize these representations for microservice partitioning. The evaluation of the fine-tuned models showcases that they were able to significantly improve the quality of the representation vectors when compared with pre-trained models and traditional representations. The proposed approach was benchmarked against existing decomposition methods, demonstrating superior performance in generating cohesive and balanced microservices for monolithic applications with varying scales.
- Abstract(参考訳): モノリシックなアプリケーションが進化するにつれて、メンテナンスや改善がますます難しくなり、スケーリングや組織的な問題が発生します。
モジュール性、柔軟性、スケーラビリティで知られるマイクロサービスアーキテクチャは、大規模アプリケーションに対するソリューションを提供する。
その利点にもかかわらず、モノリシックからマイクロサービスアーキテクチャへの移行は、しばしばコストがかかり複雑であり、分解ステップは重大な課題である。
この研究は、分解プロセスを自動化する言語モデルに基づくアプローチであるMonoEmbedを導入することでこの問題に対処する。
MonoEmbedは、最先端の大規模言語モデル(LLM)と表現学習技術を活用して、モノリシックなコンポーネントのための表現ベクトルを生成し、それをクラスタ化してマイクロサービスを形成する。
さまざまな事前トレーニングモデルの評価と、コントラスト学習やローランク適応(LoRA)といった微調整技術の適用により、MonoEmbedはこれらの表現をマイクロサービスパーティショニングに最適化することを目指している。
微調整モデルの評価は、事前訓練されたモデルや従来の表現と比較して、表現ベクトルの品質を著しく向上することができたことを示している。
提案手法は既存の分解手法に対してベンチマークされ、さまざまなスケールのモノリシックアプリケーションに対して、凝集性およびバランスの取れたマイクロサービスを生成する上で、優れたパフォーマンスを示す。
関連論文リスト
- JanusFlow: Harmonizing Autoregression and Rectified Flow for Unified Multimodal Understanding and Generation [36.93638123812204]
画像の理解と生成を単一のモデルで統一する強力なフレームワークであるJanusFlowを紹介します。
JanusFlowは自動回帰言語モデルと修正フローを統合する。
論文 参考訳(メタデータ) (2024-11-12T17:55:10Z) - Revisiting SMoE Language Models by Evaluating Inefficiencies with Task Specific Expert Pruning [78.72226641279863]
SMOE(Sparse Mixture of Expert)モデルは、言語モデリングにおける高密度モデルに代わるスケーラブルな代替品として登場した。
本研究は,SMoEアーキテクチャの設計に関する意思決定を行うために,タスク固有のモデルプルーニングについて検討する。
適応型タスク対応プルーニング手法 UNCURL を導入し,MoE 層当たりの専門家数をオフラインで学習する手法を提案する。
論文 参考訳(メタデータ) (2024-09-02T22:35:03Z) - Robust Latent Representation Tuning for Image-text Classification [9.789498730131607]
大規模モデルに対する頑健な潜在表現チューニング手法を提案する。
提案手法では,モダリティ間の相関を最大化するために,モダリティ潜在翻訳モジュールを導入し,ロバストな表現を実現する。
このフレームワークでは、トレーニング中に共通セマンティクスが洗練され、1つのモダリティがなくてもロバストなパフォーマンスが達成される。
論文 参考訳(メタデータ) (2024-06-10T06:29:00Z) - Process Modeling With Large Language Models [42.0652924091318]
本稿では,大規模言語モデル(LLM)のプロセスモデリングへの統合について検討する。
プロセスモデルの自動生成と反復的改善にLLMを利用するフレームワークを提案する。
予備的な結果は、プロセスモデリングタスクを合理化するフレームワークの能力を示している。
論文 参考訳(メタデータ) (2024-03-12T11:27:47Z) - Model Composition for Multimodal Large Language Models [71.5729418523411]
本稿では,既存のMLLMのモデル構成による新しいパラダイムを提案する。
我々の基本的な実装であるNaiveMCは、モダリティエンコーダを再利用し、LLMパラメータをマージすることで、このパラダイムの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-20T06:38:10Z) - Majority Kernels: An Approach to Leverage Big Model Dynamics for Efficient Small Model Training [32.154166415680066]
蒸留、圧縮、量子化といった手法は、高性能な大きなモデルを利用してより小さな性能のモデルを誘導するのに役立つ。
本稿では、単一トレーニングランが同時に、より大きなパフォーマンスモデルをトレーニングし、より小さなデプロイメントモデルを導出できるという仮説を考察する。
論文 参考訳(メタデータ) (2024-02-07T17:07:41Z) - Adapting Large Language Models for Content Moderation: Pitfalls in Data
Engineering and Supervised Fine-tuning [79.53130089003986]
大規模言語モデル(LLM)は、様々なドメインでタスクを処理するための実現可能なソリューションとなっている。
本稿では、コンテンツモデレーションのためにプライベートにデプロイ可能なLLMモデルを微調整する方法を紹介する。
論文 参考訳(メタデータ) (2023-10-05T09:09:44Z) - Scaling Vision-Language Models with Sparse Mixture of Experts [128.0882767889029]
提案手法は, 等価計算コストの高密度モデルに対して, 様々なベンチマークにおいて, 最先端性能を実現することができることを示す。
我々の研究は、MoEモデルのトレーニングの安定化、モデル解釈可能性に対するMoEの影響の理解、ビジョン言語モデルをスケールする際の計算性能間のトレードオフのバランスに関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2023-03-13T16:00:31Z) - Slimmable Domain Adaptation [112.19652651687402]
重み付けモデルバンクを用いて、ドメイン間の一般化を改善するためのシンプルなフレームワーク、Slimmable Domain Adaptationを導入する。
私たちのフレームワークは、他の競合するアプローチを、複数のベンチマークにおいて非常に大きなマージンで上回ります。
論文 参考訳(メタデータ) (2022-06-14T06:28:04Z) - Model-Agnostic Multitask Fine-tuning for Few-shot Vision-Language
Transfer Learning [59.38343286807997]
未知タスクの視覚言語モデルのためのモデル非依存型マルチタスクファインチューニング(MAMF)を提案する。
モデルに依存しないメタラーニング(MAML)と比較して、MAMFは二段階最適化を捨て、一階勾配のみを使用する。
MAMFは5つのベンチマークデータセット上で、数ショットの転送学習において古典的な微調整法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-03-09T17:26:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。