論文の概要: Multi-Location Software Model Completion
- arxiv url: http://arxiv.org/abs/2601.13894v1
- Date: Tue, 20 Jan 2026 12:19:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.300323
- Title: Multi-Location Software Model Completion
- Title(参考訳): マルチロケーション・ソフトウェア・モデル・コンプリート
- Authors: Alisa Welter, Christof Tinnes, Sven Apel,
- Abstract要約: 我々は,新たなグローバル埋め込み型次フォーカス予測器であるNextFocusを提案する。
NextFocusは、初めてマルチロケーションモデル補完を行うことができる。
平均のPrecision@kスコアは$k leq 10$で0.98で、3つのベースラインアプローチよりも大幅に優れています。
- 参考スコア(独自算出の注目度): 6.674306827529775
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In model-driven engineering and beyond, software models are key development artifacts. In practice, they often grow to substantial size and complexity, undergoing thousands of modifications over time due to evolution, refactoring, and maintenance. The rise of AI has sparked interest in how software modeling activities can be automated. Recently, LLM-based approaches for software model completion have been proposed, however, the state of the art supports only single-location model completion by predicting changes at a specific location. Going beyond, we aim to bridge the gap toward handling coordinated changes that span multiple locations across large, complex models. Specifically, we propose a novel global embedding-based next focus predictor, NextFocus, which is capable of multi-location model completion for the first time. The predictor consists of a neural network with an attention mechanism that is trained on historical software model evolution data. Starting from an existing change, it predicts further model elements to change, potentially spanning multiple parts of the model. We evaluate our approach on multi-location model changes that have actually been performed by developers in real-world projects. NextFocus achieves promising results for multi-location model completion, even when changes are heavily spread across the model. It achieves an average Precision@k score of 0.98 for $k \leq 10$, significantly outperforming the three baseline approaches.
- Abstract(参考訳): モデル駆動エンジニアリングなどでは、ソフトウェアモデルは重要な開発成果物です。
実際には、大きなサイズと複雑さに成長し、進化、リファクタリング、メンテナンスのために何千もの修正を経ています。
AIの台頭は、ソフトウェアモデリングアクティビティの自動化への関心を喚起した。
近年,LLMに基づくソフトウェアモデル補完手法が提案されているが,現状では特定の場所での変化を予測することで,単一位置モデル補完のみをサポートしている。
今後は、大規模な複雑なモデルにまたがる複数のロケーションにまたがるコーディネートされた変更を扱うためのギャップを埋めることを目指しています。
具体的には,新たなグローバルな埋め込み型次フォーカス予測器であるNextFocusを提案する。
予測子は、過去のソフトウェアモデル進化データに基づいてトレーニングされたアテンションメカニズムを備えたニューラルネットワークで構成されている。
既存の変更から始めて、変更すべきモデル要素を予測し、モデルの複数の部分にまたがる可能性がある。
実世界のプロジェクトで開発者が実際に行ったマルチロケーションモデル変更に対するアプローチを評価した。
NextFocusは、モデル全体に大きな変更が分散している場合でも、マルチロケーションモデル補完のための有望な結果を達成する。
平均のPrecision@kスコアは$k \leq 10$で0.98で、3つのベースラインアプローチよりも大幅に優れています。
関連論文リスト
- Intention-Conditioned Flow Occupancy Models [80.42634994902858]
大規模な事前学習は、今日の機械学習研究のやり方を根本的に変えた。
同じフレームワークを強化学習に適用することは、RLの中核的な課題に対処するための魅力的な方法を提供するので、魅力的です。
生成AIの最近の進歩は、高度に複雑な分布をモデリングするための新しいツールを提供している。
論文 参考訳(メタデータ) (2025-06-10T15:27:46Z) - Multiagent Finetuning: Self Improvement with Diverse Reasoning Chains [114.76612918465948]
大規模言語モデル(LLM)は近年顕著なパフォーマンスを達成しているが、基礎となるトレーニングデータによって根本的に制限されている。
本稿では,言語モデルのマルチエージェント社会にファインタニングを適用した自己改善への補完的アプローチを提案する。
論文 参考訳(メタデータ) (2025-01-10T04:35:46Z) - How do Machine Learning Models Change? [7.78045494365902]
本研究は、Hugging Faceで10万台のモデルから680,000件のコミットと202台のモデルから2,251件のコミットを分析した。
コミットを分類し,ベイズネットワークを用いてコミット・リリース活動の時間パターンをモデル化するために,拡張ML変更分類を適用した。
論文 参考訳(メタデータ) (2024-11-14T18:14:32Z) - Knowledge Fusion By Evolving Weights of Language Models [5.354527640064584]
本稿では,複数のモデルを統一モデルに統合するアプローチについて検討する。
本稿では進化的アルゴリズムに触発されたEvolverという知識融合手法を提案する。
論文 参考訳(メタデータ) (2024-06-18T02:12:34Z) - EMR-Merging: Tuning-Free High-Performance Model Merging [55.03509900949149]
Elect, Mask & Rescale-Merging (EMR-Merging) は既存のマージ手法と比較して優れた性能を示した。
EMR-Mergingはチューニング不要なので、データアベイラビリティや追加のトレーニングは必要ありません。
論文 参考訳(メタデータ) (2024-05-23T05:25:45Z) - Model Callers for Transforming Predictive and Generative AI Applications [2.7195102129095003]
モデル呼び出し(model caller)と呼ばれる新しいソフトウェア抽象化を導入する。
モデル呼び出しは、AIとMLモデル呼び出しの仲介役として機能する。
我々は、モデル呼び出しのためのPythonライブラリのプロトタイプをリリースした。
論文 参考訳(メタデータ) (2024-04-17T12:21:06Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [47.432215933099016]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - A Model-Driven Engineering Approach to Machine Learning and Software
Modeling [0.5156484100374059]
モデルは、ソフトウェア工学(SE)と人工知能(AI)のコミュニティで使われている。
主な焦点はIoT(Internet of Things)とCPS(Smart Cyber-Physical Systems)のユースケースである。
論文 参考訳(メタデータ) (2021-07-06T15:50:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。