論文の概要: Who's Who? LLM-assisted Software Traceability with Architecture Entity Recognition
- arxiv url: http://arxiv.org/abs/2511.02434v1
- Date: Tue, 04 Nov 2025 10:06:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:05.889036
- Title: Who's Who? LLM-assisted Software Traceability with Architecture Entity Recognition
- Title(参考訳): アーキテクチャエンティティ認識によるLLM支援ソフトウェアトレーサビリティ
- Authors: Dominik Fuchß, Haoyu Liu, Sophie Corallo, Tobias Hey, Jan Keim, Johannes von Geisau, Anne Koziolek,
- Abstract要約: 大規模言語モデル(LLM)は、SADとソースコードからアーキテクチャエンティティを抽出し、SAMを自動的に構築したり、直接トレースリンクを確立するための新しい機能を提供する。
本稿では、2つのLCMベースのアプローチを提案する: ExArchは、手動SAM作成の必要性を排除するために、SADとソースコードから単純なSAMとしてコンポーネント名を抽出し、ArTEMiSはドキュメント内のアーキテクチャエンティティを識別し、SAMエンティティとマッチさせる(手動または自動生成)。
- 参考スコア(独自算出の注目度): 12.869858023383026
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Identifying architecturally relevant entities in textual artifacts is crucial for Traceability Link Recovery (TLR) between Software Architecture Documentation (SAD) and source code. While Software Architecture Models (SAMs) can bridge the semantic gap between these artifacts, their manual creation is time-consuming. Large Language Models (LLMs) offer new capabilities for extracting architectural entities from SAD and source code to construct SAMs automatically or establish direct trace links. This paper presents two LLM-based approaches: ExArch extracts component names as simple SAMs from SAD and source code to eliminate the need for manual SAM creation, while ArTEMiS identifies architectural entities in documentation and matches them with (manually or automatically generated) SAM entities. Our evaluation compares against state-of-the-art approaches SWATTR, TransArC and ArDoCode. TransArC achieves strong performance (F1: 0.87) but requires manually created SAMs; ExArch achieves comparable results (F1: 0.86) using only SAD and code. ArTEMiS is on par with the traditional heuristic-based SWATTR (F1: 0.81) and can successfully replace it when integrated with TransArC. The combination of ArTEMiS and ExArch outperforms ArDoCode, the best baseline without manual SAMs. Our results demonstrate that LLMs can effectively identify architectural entities in textual artifacts, enabling automated SAM generation and TLR, making architecture-code traceability more practical and accessible.
- Abstract(参考訳): ソフトウェアアーキテクチャドキュメンテーション(SAD)とソースコードの間のトレーサビリティリンクリカバリ(TLR)にとって、テキストアーティファクトにおけるアーキテクチャ関連エンティティの特定は不可欠である。
ソフトウェアアーキテクチャモデル(SAM)はこれらのアーティファクト間のセマンティックなギャップを埋めることができますが、手作業による作成には時間がかかります。
大規模言語モデル(LLM)は、SADとソースコードからアーキテクチャエンティティを抽出し、SAMを自動的に構築したり、直接トレースリンクを確立するための新しい機能を提供する。
本稿では、2つのLCMベースのアプローチを提案する: ExArchは、手動SAM作成の必要性を排除するために、SADとソースコードから単純なSAMとしてコンポーネント名を抽出し、ArTEMiSはドキュメント内のアーキテクチャエンティティを識別し(手動または自動生成)SAMエンティティとマッチングする。
我々の評価は、SWATTR、TransArC、ArDoCodeといった最先端のアプローチと比較する。
TransArchは強力なパフォーマンス(F1: 0.87)を実現するが、手動でSAMを作成する必要があり、ExArchはSADとコードのみを使用して同等の結果(F1: 0.86)を得る。
ArTEMiS は従来のヒューリスティックベースのSWATTR (F1: 0.81) と同等であり、TransArC と統合してそれを置き換えることに成功している。
ArTEMiSとExArchの組み合わせは、手動SAMなしで最高のベースラインであるArDoCodeを上回っている。
以上の結果から,LLMはテキストアーティファクトのアーキテクチャエンティティを効果的に識別し,SAM生成とTLRの自動生成を実現し,アーキテクチャ・コードのトレーサビリティをより実用的かつアクセスしやすくする。
関連論文リスト
- BuildBench: Benchmarking LLM Agents on Compiling Real-World Open-Source Software [39.43177863341685]
既存のメソッドは手動でキュレートされたルールに依存しており、カスタマイズされた設定や環境設定を必要とするOSSに適応できない。
近年、Large Language Models (LLMs) を用いた試みでは、高度に評価されたOSSのサブセットを選択的に評価した。
より困難で現実的なベンチマークであるBUILD-BENCHを提案する。
論文 参考訳(メタデータ) (2025-09-27T03:02:46Z) - LM-Searcher: Cross-domain Neural Architecture Search with LLMs via Unified Numerical Encoding [55.5535016040221]
LM-Searcherは、クロスドメインニューラルネットワーク最適化のための新しいフレームワークである。
我々のアプローチの中心は、ニューラルネットワークのための普遍的な数値文字列表現であるNCodeである。
我々のデータセットは、幅広いアーキテクチャとパフォーマンスのペアを含み、堅牢で伝達可能な学習を促進する。
論文 参考訳(メタデータ) (2025-09-06T09:26:39Z) - SAM2-UNeXT: An Improved High-Resolution Baseline for Adapting Foundation Models to Downstream Segmentation Tasks [50.97089872043121]
SAM2-UNeXTはSAM2-UNetの中核となる原理を基盤とした高度なフレームワークである。
我々は、補助的なDINOv2エンコーダの統合によりSAM2の表現能力を拡張する。
我々のアプローチは、単純なアーキテクチャでより正確なセグメンテーションを可能にし、複雑なデコーダ設計の必要性を緩和する。
論文 参考訳(メタデータ) (2025-08-05T15:36:13Z) - Beyond Isolated Dots: Benchmarking Structured Table Construction as Deep Knowledge Extraction [80.88654868264645]
Arranged and Organized extract Benchmarkは、断片化された文書を理解するための大規模言語モデルの能力を評価するために設計された。
AOEには3つの異なるドメインにまたがる11のタスクが含まれており、さまざまな入力クエリに適したコンテキスト固有のスキーマを生成するモデルが必要である。
結果は、最も先進的なモデルでさえ、かなり苦労したことを示している。
論文 参考訳(メタデータ) (2025-07-22T06:37:51Z) - SAFT: Structure-Aware Fine-Tuning of LLMs for AMR-to-Text Generation [50.277959544420455]
SAFTは、事前訓練された言語モデルにグラフトポロジーを注入する構造対応の微調整手法である。
変換されたAMRの磁気ラプラシアンから方向感応的な位置エンコーディングを計算する。
SAFTはAMR 3.0に新しい最先端を設定、ベースラインを3.5BLEU改善した。
論文 参考訳(メタデータ) (2025-07-15T18:12:57Z) - An LLM-assisted approach to designing software architectures using ADD [13.527856271380317]
本稿では,Attribute-Driven Design (ADD) 法を用いたLarge Language Model (LLM) 支援ソフトウェアアーキテクチャ設計手法を提案する。
ケーススタディを通じてアプローチを検証するとともに、生成した設計を実証されたソリューションと比較し、専門家アーキテクトと評価する。
論文 参考訳(メタデータ) (2025-06-27T23:58:15Z) - Large Language Models are Good Relational Learners [55.40941576497973]
本稿では,グラフニューラルネットワーク(GNN)に基づくエンコーダを用いて,大規模言語モデル(LLM)のための構造化リレーショナルプロンプトを生成する新しいアーキテクチャであるRel-LLMを紹介する。
従来のテキストベースのシリアライズ手法とは異なり,本手法はデータベース固有の関係構造を保ちながら,LLMが複雑なエンティティ関係を処理・推論することを可能にする。
論文 参考訳(メタデータ) (2025-06-06T04:07:55Z) - SEKI: Self-Evolution and Knowledge Inspiration based Neural Architecture Search via Large Language Models [11.670056503731905]
本稿では,新しい大規模言語モデル (LLM) に基づくニューラルアーキテクチャ探索 (NAS) 手法であるSEKIを紹介する。
現代のLLMにおけるチェーン・オブ・シント(CoT)パラダイムにインスパイアされたセキは、自己進化と知識蒸留という2つの重要な段階で動作している。
論文 参考訳(メタデータ) (2025-02-27T09:17:49Z) - Prompting DirectSAM for Semantic Contour Extraction in Remote Sensing Images [11.845626002236772]
我々は,自然画像から得られる強いセグメンテーション機能を継承するDirectSAM-RSという,DirectSAMから派生した基盤モデルを提案する。
このデータセットは34k以上の画像-テキスト-コンテンツトレーレットで構成されており、個々のデータセットの少なくとも30倍の大きさである。
我々は、DirectSAM-RSをゼロショットと微調整の両方で評価し、複数のダウンストリームベンチマークで最先端性能を実現することを実証した。
論文 参考訳(メタデータ) (2024-10-08T16:55:42Z) - Language Models Enable Simple Systems for Generating Structured Views of Heterogeneous Data Lakes [54.13559879916708]
EVAPORATEは大規模言語モデル(LLM)を利用したプロトタイプシステムである。
コード合成は安価だが、各文書をLSMで直接処理するよりもはるかに正確ではない。
直接抽出よりも優れた品質を実現する拡張コード実装EVAPORATE-CODE+を提案する。
論文 参考訳(メタデータ) (2023-04-19T06:00:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。