論文の概要: Software Product Line Engineering via Software Transplantation
- arxiv url: http://arxiv.org/abs/2307.10896v1
- Date: Thu, 20 Jul 2023 14:19:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 17:05:07.570508
- Title: Software Product Line Engineering via Software Transplantation
- Title(参考訳): ソフトウェア移植によるソフトウェア製品ラインエンジニアリング
- Authors: Leandro O. Souza, Earl T. Barr, Justyna Petke, Eduardo S. Almeida and
Paulo Anselmo M. S. Neto
- Abstract要約: ソフトウェア製品ライン(Software Product Line, SPL)は、市場投入までの時間とソフトウェア品質を改善するソフトウェア再利用手法である。
現在のSPLのプラクティスは、さまざまな再設計フェーズに適したツールのコレクションに依存しています。
本稿では、ソフトウェア移植を活用してSPLの変換とメンテナンスを高速化する一般的な自動化アプローチであるFoundryを紹介する。
- 参考スコア(独自算出の注目度): 8.41072831744973
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: For companies producing related products, a Software Product Line (SPL) is a
software reuse method that improves time-to-market and software quality,
achieving substantial cost reductions.These benefits do not come for free. It
often takes years to re-architect and re-engineer a codebase to support SPL
and, once adopted, it must be maintained. Current SPL practice relies on a
collection of tools, tailored for different reengineering phases, whose output
developers must coordinate and integrate. We present Foundry, a general
automated approach for leveraging software transplantation to speed conversion
to and maintenance of SPL. Foundry facilitates feature extraction and
migration. It can efficiently, repeatedly, transplant a sequence of features,
implemented in multiple files. We used Foundry to create two valid product
lines that integrate features from three real-world systems in an automated
way. Moreover, we conducted an experiment comparing Foundry's feature migration
with manual effort. We show that Foundry automatically migrated features across
codebases 4.8 times faster, on average, than the average time a group of SPL
experts took to accomplish the task.
- Abstract(参考訳): 関連製品を製造する企業にとって、SPL(Software Product Line)は、市場投入までの時間とソフトウェア品質を改善し、大幅なコスト削減を実現するソフトウェア再利用手法である。
多くの場合、SPLをサポートするためにコードベースを再設計し、再設計するのに何年もかかります。
現在のSPLのプラクティスは、さまざまな再設計フェーズ用に調整されたツールの集合に依存している。
本稿では,splへの変換とメンテナンスを高速化するソフトウェア移植の汎用的自動化手法である foundryを提案する。
Foundryは機能抽出とマイグレーションを容易にする。
複数のファイルで実装された一連の機能を効率よく、繰り返し、移植することができる。
私たちはFoundryを使って、3つの現実世界のシステムから機能を自動で統合する2つの有効な製品ラインを作りました。
さらに,Foundryの機能移行と手作業との比較実験を行った。
foundryは、splの専門家のグループがタスクを達成するのに要した平均時間よりも、コードベース全体の機能を自動的に4.8倍速く移行した。
関連論文リスト
- Autellix: An Efficient Serving Engine for LLM Agents as General Programs [59.673243129044465]
大規模言語モデル(LLM)アプリケーションは、単純なチャットボットを超えて、動的で汎用的なエージェントプログラムへと進化している。
既存のLLMサービスシステムは、プログラムと呼び出し間の依存関係を無視し、最適化のための大きな機会を欠いている。
プログラムを第一級市民として扱い、エンドツーエンドのレイテンシを最小限に抑えるLLMサービスシステムであるAutellixを紹介する。
論文 参考訳(メタデータ) (2025-02-19T18:59:30Z) - Optimizing Code Runtime Performance through Context-Aware Retrieval-Augmented Generation [8.574686422653345]
AutoはGPT-4oよりも実行効率が7.3%向上した。
本研究では、LLMが最適化されたコードを自動的に生成できるようにすることにより、そのギャップを埋めるためのコンテキスト内学習手法を提案する。
論文 参考訳(メタデータ) (2025-01-28T04:00:35Z) - LABIIUM: AI-Enhanced Zero-configuration Measurement Automation System [0.0]
本稿では,実験の合理化とユーザの生産性向上を目的としたAIによる計測自動化システムであるLABIiumを紹介する。
Lab-Automation-Measurement Bridges (LAMBs)はVSCodeやPythonといった標準ツールを使ったシームレスなインスツルメンタ接続を可能にし、セットアップのオーバーヘッドをなくす。
この評価は、LABIiumが研究室の生産性を高め、研究と産業におけるデジタルトランスフォーメーションを支援する能力を強調している。
論文 参考訳(メタデータ) (2024-12-07T00:15:24Z) - Enhancing Security in Third-Party Library Reuse -- Comprehensive Detection of 1-day Vulnerability through Code Patch Analysis [8.897599530972638]
サードパーティライブラリ(TPL)は、TPLのメンテナンスが低いため、脆弱性(1日脆弱性と呼ばれる)を導入することができる。
VULTUREは、脆弱なTPLの再利用から生じる1日間の脆弱性を特定することを目的としている。
VULTUREは178個のTPLから175個の脆弱性を特定した。
論文 参考訳(メタデータ) (2024-11-29T12:02:28Z) - A Decoding Acceleration Framework for Industrial Deployable LLM-based Recommender Systems [49.588316022381385]
本稿では,LLMベースのレコメンデーション(DARE)のためのデコード高速化フレームワークを提案し,検索効率を向上させるためのカスタマイズされた検索プールと,ドラフトトークンの受け入れ率を高めるための緩和検証を提案する。
DAREは大規模な商用環境でのオンライン広告シナリオにデプロイされ、ダウンストリームのパフォーマンスを維持しながら3.45倍のスピードアップを実現している。
論文 参考訳(メタデータ) (2024-08-11T02:31:13Z) - Agent-Driven Automatic Software Improvement [55.2480439325792]
本提案は,Large Language Models (LLMs) を利用したエージェントの展開に着目して,革新的なソリューションの探求を目的とする。
継続的学習と適応を可能にするエージェントの反復的性質は、コード生成における一般的な課題を克服するのに役立ちます。
我々は,これらのシステムにおける反復的なフィードバックを用いて,エージェントの基盤となるLLMをさらに微調整し,自動化されたソフトウェア改善のタスクに整合性を持たせることを目指している。
論文 参考訳(メタデータ) (2024-06-24T15:45:22Z) - AutoCodeRover: Autonomous Program Improvement [8.66280420062806]
プログラムの改善を自律的に達成するために、GitHubの問題を解決する自動化アプローチを提案する。
AutoCodeRoverと呼ばれるアプローチでは、LLMは洗練されたコード検索機能と組み合わせられ、最終的にプログラムの変更やパッチにつながります。
SWE-bench-lite(300の現実のGitHubイシュー)の実験では、GitHubの問題を解決する効果が向上している(SWE-bench-liteでは19%)。
論文 参考訳(メタデータ) (2024-04-08T11:55:09Z) - Automated User Story Generation with Test Case Specification Using Large Language Model [0.0]
要件文書からユーザストーリーを自動生成するツール「GeneUS」を開発した。
アウトプットはフォーマットで提供され、ダウンストリーム統合の可能性は人気のあるプロジェクト管理ツールに開放されます。
論文 参考訳(メタデータ) (2024-04-02T01:45:57Z) - Multi-Job Intelligent Scheduling with Cross-Device Federated Learning [65.69079337653994]
フェデレートラーニング(FL)は、センシティブな生データを共有せずに、協調的なグローバル機械学習モデルのトレーニングを可能にする。
本稿では,複数のジョブを並列にトレーニングできる新しいマルチジョブFLフレームワークを提案する。
本稿では,元来の強化学習に基づくスケジューリング手法と元来のベイズ最適化に基づくスケジューリング手法を含む,複数のスケジューリング手法に基づく新しいインテリジェントスケジューリング手法を提案する。
論文 参考訳(メタデータ) (2022-11-24T06:17:40Z) - Efficient Device Scheduling with Multi-Job Federated Learning [64.21733164243781]
本稿では,複数のジョブの並列学習プロセスを実現するための,新しいマルチジョブフェデレーション学習フレームワークを提案する。
コストを最小化しつつ、複数のジョブに対してデバイスをスケジュールする強化学習法とベイズ最適化法を提案する。
提案手法は,トレーニング時間(最大8.67倍高速)と精度(最大44.6%高)において,ベースラインアプローチよりも有意に優れていた。
論文 参考訳(メタデータ) (2021-12-11T08:05:11Z) - EasyTransfer -- A Simple and Scalable Deep Transfer Learning Platform
for NLP Applications [65.87067607849757]
EasyTransferは自然言語処理(NLP)アプリケーションのためのディープトランスファー学習アルゴリズムを開発するためのプラットフォームである。
EasyTransfer は ModelZoo で様々な NLP モデルをサポートしている。
EasyTransferは現在Alibabaにデプロイされており、さまざまなビジネスシナリオをサポートしている。
論文 参考訳(メタデータ) (2020-11-18T18:41:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。