論文の概要: Quantitative Analysis of Technical Debt and Pattern Violation in Large Language Model Architectures
- arxiv url: http://arxiv.org/abs/2512.04273v1
- Date: Wed, 03 Dec 2025 21:24:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:45.889242
- Title: Quantitative Analysis of Technical Debt and Pattern Violation in Large Language Model Architectures
- Title(参考訳): 大規模言語モデルアーキテクチャにおける技術的負債とパターン振動の定量的解析
- Authors: Tyler Slater,
- Abstract要約: 本研究では,AI合成システムにおける「建築エロージョン」と技術的負債の蓄積を計測する最初の経験的枠組みを提案する。
プロプライエタリなモデルは高いアーキテクチャ適合性を実現する一方で、オープンウェイトモデルは重要なばらつきを示す。
これらの結果から, システムスキャフォールディングに小型オープンウェイトモデルを用いることで, 構造的技術的負債の蓄積が促進されることが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As Large Language Models (LLMs) transition from code completion tools to autonomous system architects, their impact on long-term software maintainability remains unquantified. While existing research benchmarks functional correctness (pass@k), this study presents the first empirical framework to measure "Architectural Erosion" and the accumulation of Technical Debt in AI-synthesized microservices. We conducted a comparative pilot study of three state-of-the-art models (GPT-5.1, Claude 4.5 Sonnet, and Llama 3 8B) by prompting them to implement a standardized Book Lending Microservice under strict Hexagonal Architecture constraints. Utilizing Abstract Syntax Tree (AST) parsing, we find that while proprietary models achieve high architectural conformance (0% violation rate for GPT-5.1), open-weights models exhibit critical divergence. Specifically, Llama 3 demonstrated an 80% Architectural Violation Rate, frequently bypassing interface adapters to create illegal circular dependencies between Domain and Infrastructure layers. Furthermore, we identified a phenomenon of "Implementation Laziness," where open-weights models generated 60% fewer Logical Lines of Code (LLOC) than their proprietary counterparts, effectively omitting complex business logic to satisfy token constraints. These findings suggest that without automated architectural linting, utilizing smaller open-weights models for system scaffolding accelerates the accumulation of structural technical debt.
- Abstract(参考訳): 大規模言語モデル(LLM)がコード補完ツールから自律システムアーキテクトへと移行するにつれ、長期的なソフトウェア保守性に対する影響はいまだに定かではない。
既存の研究ベンチマークでは、機能的正確性(pass@k)が評価されているが、この研究は、AI合成マイクロサービスにおける“アーキテクチャのエロージョン”と技術的負債の蓄積を測定するための、最初の実証的なフレームワークを提示している。
我々は,厳密なヘキサゴナルアーキテクチャ制約の下で,標準化されたブックレンディングマイクロサービスを実装するように促すことにより,最先端3つのモデル(GPT-5.1,Claude 4.5 Sonnet,Llama 38B)の比較試験を行った。
抽象構文木(AST)解析を用いて、プロプライエタリモデルは高いアーキテクチャ適合性(GPT-5.1の0%違反率)を達成するが、オープンウェイトモデルは重要なばらつきを示す。
具体的には、Llama 3は80%のアーキテクチャ違反率を示し、しばしばインターフェースアダプタをバイパスして、ドメイン層とインフラストラクチャ層の間の違法な円形の依存関係を作成しました。
さらに,オープンウェイトモデルによって生成される論理行数(LLOC)が,プロプライエタリなモデルよりも60%少なくなり,トークン制約を満たすために複雑なビジネスロジックを効果的に省略する,実装遅延(Implementation Laziness)という現象も確認した。
これらの結果から, システムスキャフォールディングに小型オープンウェイトモデルを用いることで, 構造的技術的負債の蓄積が促進されることが示唆された。
関連論文リスト
- RL-Struct: A Lightweight Reinforcement Learning Framework for Reliable Structured Output in LLMs [0.08594140167290097]
大規模言語モデル(LLM)は、自然言語の生成と推論において顕著な能力を示した。
自動化されたソフトウェアエコシステムへの統合は、しばしば"構造ギャップ"によって妨げられます。
このギャップを埋めるための軽量で効率的な強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-29T04:47:14Z) - Human-aligned AI Model Cards with Weighted Hierarchy Architecture [5.774549987076668]
LLM(Large Language Models)の普及は、専門的なドメイン特化モデルのエコシステムの肥大化につながった。
Model CardsやFactSheetsといった既存のドキュメントフレームワークは、レポートの標準化を試みるが、多くの場合は静的で、質的である。
我々は、静的開示からアクション可能な人間対応のドキュメントに移行する新しいアプローチである包括的責任AIモデルカードフレームワーク(CRAI-MCF)を紹介します。
論文 参考訳(メタデータ) (2025-10-08T13:13:18Z) - Enhanced DeepONet for 1-D consolidation operator learning: an architectural investigation [1.1743167854433305]
Deep Operator Networks (DeepONets) は、PDEが支配するシステムにおいて、ソリューション演算子を学習するための強力な代理モデリングフレームワークとして登場した。
本研究では,一次元凝縮問題に対する複数のDeepONetアーキテクチャを体系的に評価する。
論文 参考訳(メタデータ) (2025-07-14T15:09:58Z) - Elucidating the Design Space of Multimodal Protein Language Models [69.3650883370033]
マルチモーダルタンパク質言語モデル(PLM)は、シーケンスとトークンに基づく構造情報を統合する。
本稿では,マルチモーダルPLMの設計空間を体系的に解明し,その限界を克服する。
我々の進歩はよりきめ細かな監督にアプローチし、トークンベースのマルチモーダルPLMが堅牢な構造モデリングを実現することを実証する。
論文 参考訳(メタデータ) (2025-04-15T17:59:43Z) - Serving Deep Learning Model in Relational Databases [70.53282490832189]
リレーショナルデータ上での深層学習(DL)モデルの実現は、様々な商業分野や科学分野において重要な要件となっている。
最先端のDL中心アーキテクチャは、DL計算を専用のDLフレームワークにオフロードします。
UDF中心アーキテクチャの可能性は、リレーショナルデータベース管理システム(RDBMS)内の1つ以上のテンソル計算をユーザ定義関数(UDF)にカプセル化する。
論文 参考訳(メタデータ) (2023-10-07T06:01:35Z) - Towards Automated Identification of Violation Symptoms of Architecture Erosion [2.915855887948474]
本稿では,コードレビューにおける開発者の議論から,違反症状の自動識別について検討する。
我々は,事前学習した単語埋め込みを用いた15の機械学習に基づく分類器を開発し,コードレビューのコメントで評価した。
その結果, word2vec を用いた SVM は F1 スコア 0.779 で最高の ML/DL 性能を示した。
論文 参考訳(メタデータ) (2023-06-14T16:20:59Z) - Squeezeformer: An Efficient Transformer for Automatic Speech Recognition [99.349598600887]
Conformerは、そのハイブリッドアテンション・コンボリューションアーキテクチャに基づいて、様々な下流音声タスクの事実上のバックボーンモデルである。
Squeezeformerモデルを提案する。これは、同じトレーニングスキームの下で、最先端のASRモデルよりも一貫して優れている。
論文 参考訳(メタデータ) (2022-06-02T06:06:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。