論文の概要: Embedding Software Intent: Lightweight Java Module Recovery
- arxiv url: http://arxiv.org/abs/2512.15980v1
- Date: Wed, 17 Dec 2025 21:24:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:31.830837
- Title: Embedding Software Intent: Lightweight Java Module Recovery
- Title(参考訳): ソフトウェアインテントの埋め込み:軽量なJavaモジュールのリカバリ
- Authors: Yirui He, Yuqi Huai, Xingyu Chen, Joshua Garcia,
- Abstract要約: 本稿では,完全修飾クラス名を用いたモノリシックJavaシステムからJavaモジュールを回収する,新しい,軽量で効率的なアプローチを提案する。
20の人気のあるJavaプロジェクトの評価において、ClassLARはアーキテクチャレベルの類似度測定において最先端のテクニックを全て上回り、実行時間は3.99から10.50倍の速さで達成した。
- 参考スコア(独自算出の注目度): 33.49085893168243
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As an increasing number of software systems reach unprecedented scale, relying solely on code-level abstractions is becoming impractical. While architectural abstractions offer a means to manage these systems, maintaining their consistency with the actual code has been problematic. The Java Platform Module System (JPMS), introduced in Java 9, addresses this limitation by enabling explicit module specification at the language level. JPMS enhances architectural implementation through improved encapsulation and direct specification of ground-truth architectures within Java projects. Although many projects are written in Java, modularizing existing monolithic projects to JPMS modules is an open challenge due to ineffective module recovery by existing architecture recovery techniques. To address this challenge, this paper presents ClassLAR (Class-and Language model-based Architectural Recovery), a novel, lightweight, and efficient approach that recovers Java modules from monolithic Java systems using fully-qualified class names. ClassLAR leverages language models to extract semantic information from package and class names, capturing both structural and functional intent. In evaluations across 20 popular Java projects, ClassLAR outperformed all state-of-the-art techniques in architectural-level similarity metrics while achieving execution times that were 3.99 to 10.50 times faster.
- Abstract(参考訳): ソフトウェアシステムの数が前例のない規模に達するにつれ、コードレベルの抽象化にのみ依存することは現実的になりつつあります。
アーキテクチャの抽象化はこれらのシステムを管理する手段を提供するが、実際のコードとの整合性を維持するには問題があった。
Java 9で導入されたJava Platform Module System (JPMS)は、言語レベルで明示的なモジュール仕様を有効にすることで、この制限に対処する。
JPMSはJavaプロジェクト内でのカプセル化と基幹アーキテクチャの直接的な仕様の改善を通じて、アーキテクチャの実装を強化する。
多くのプロジェクトはJavaで記述されているが、既存のモノリシックプロジェクトをJPMSモジュールにモジュール化することは、既存のアーキテクチャリカバリ技術による非効率なモジュールリカバリのため、オープンな課題である。
この課題に対処するため、本論文では、クラスLAR(Class-and Language model-based Architectural Recovery)という、完全修飾クラス名を用いたモノリシックJavaシステムからJavaモジュールを回収する、新しくて軽量で効率的なアプローチを提案する。
ClassLARは言語モデルを利用してパッケージ名とクラス名から意味情報を抽出し、構造的意図と機能的意図の両方をキャプチャする。
20の人気のあるJavaプロジェクトの評価において、ClassLARはアーキテクチャレベルの類似度測定において最先端のテクニックを全て上回り、実行時間は3.99から10.50倍の速さで達成した。
関連論文リスト
- Towards Realistic Project-Level Code Generation via Multi-Agent Collaboration and Semantic Architecture Modeling [7.753074942497876]
CodeProjectEvalは、12.7ファイルと2,388.6行のタスクを持つ18の現実世界リポジトリから構築されたプロジェクトレベルのコード生成データセットである。
プロジェクトをアーキテクチャ設計、スケルトン生成、コードフィリングステージに分解するマルチエージェントフレームワークであるProjectGenを提案する。
実験によると、ProjectGenは、52/124のテストケースを小さなプロジェクトレベルのコード生成データセットDevBenchに渡すことで、最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-11-05T12:12:35Z) - Navigating the Labyrinth: Path-Sensitive Unit Test Generation with Large Language Models [13.89267206718739]
単体テストはソフトウェアの品質保証には不可欠だが、テストの記述とメンテナンスは時間がかかり、エラーが発生しやすい。
このギャップを埋めるために、コード知識とLLMのセマンティック機能を組み合わせることで、パスに敏感なフレームワークであるJUnitGenieを紹介します。
JUnitGenieを実世界の10のJavaプロジェクトから2,258の複雑な焦点メソッドで評価する。
論文 参考訳(メタデータ) (2025-09-28T11:29:57Z) - Automated and Context-Aware Code Documentation Leveraging Advanced LLMs [0.0]
既存の自動化アプローチは主にコードの要約に重点を置いており、テンプレートベースのドキュメント生成のギャップを残している。
我々は,現代Javaからの重要な構造情報と意味情報を含む,Javadoc生成のための新しいコンテキスト対応データセットを開発する。
LLaMA-3.1, Gemma Phi-3, Mistral, Qwen-2.5を含む5つのオープンソースLCMをゼロショット, 少数ショット, 微調整設定を用いて評価し, その性能の比較分析を行った。
論文 参考訳(メタデータ) (2025-09-16T06:27:09Z) - Dimensionality reduction for homological stability and global structure preservation [49.84018914962972]
本稿では,UMAP や tSNE といった従来の手法が直面する課題に対処するために,新しい次元削減ツールキットを提案する。
JAXフレームワーク上に構築されたDiReは、現代的なハードウェアアクセラレーションを活用し、複雑なデータ構造を視覚化するための効率的でスケーラブルで解釈可能なソリューションを提供する。
このツールキットは、最先端の UMAP や tSNE の実装と比較して、データ内のローカル構造とグローバル構造の両方を保存することにかなり有望である。
論文 参考訳(メタデータ) (2025-03-05T03:56:01Z) - B'MOJO: Hybrid State Space Realizations of Foundation Models with Eidetic and Fading Memory [91.81390121042192]
我々はB'MOJOと呼ばれるモデル群を開発し、構成可能なモジュール内で理想的メモリと暗黙的メモリをシームレスに結合する。
B'MOJOのイデオティックメモリとフェードメモリを変調する能力は、32Kトークンまでテストされた長いシーケンスの推論をより良くする。
論文 参考訳(メタデータ) (2024-07-08T18:41:01Z) - On the Generalizability of Deep Learning-based Code Completion Across Programming Language Versions [12.245958803682505]
コード補完は統合開発環境(IDE)の重要な特徴である
現代のコード補完アプローチは、しばしばディープラーニング(DL)モデルによって利用される。
これらのモデルは、異なる言語バージョンにまたがって一般化できますか?
論文 参考訳(メタデータ) (2024-03-22T12:05:18Z) - Is a Modular Architecture Enough? [80.32451720642209]
我々は、シンプルで既知のモジュラーデータ分散のレンズを通して、共通のモジュラーアーキテクチャを徹底的に評価する。
モジュール化と疎結合のメリットを強調し、モジュール化システムの最適化において直面する課題に関する洞察を明らかにします。
論文 参考訳(メタデータ) (2022-06-06T16:12:06Z) - GroupBERT: Enhanced Transformer Architecture with Efficient Grouped
Structures [57.46093180685175]
トランスフォーマー層の構造を改良し,より効率的なアーキテクチャを実現する。
自己認識モジュールを補完する畳み込みモジュールを追加し、局所的およびグローバルな相互作用の学習を分離する。
得られたアーキテクチャを言語表現学習に適用し、異なるスケールのBERTモデルと比較して優れた性能を示す。
論文 参考訳(メタデータ) (2021-06-10T15:41:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。