論文の概要: From Code Smells to Best Practices: Tackling Resource Leaks in PyTorch, TensorFlow, and Keras
- arxiv url: http://arxiv.org/abs/2511.15229v1
- Date: Wed, 19 Nov 2025 08:32:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-20 15:51:28.705162
- Title: From Code Smells to Best Practices: Tackling Resource Leaks in PyTorch, TensorFlow, and Keras
- Title(参考訳): Code Smellsからベストプラクティスへ:PyTorch、TensorFlow、Kerasのリソースリークに対処
- Authors: Bashar Abdallah, Martyna E. Wojciechowska, Gustavo Santos, Edmand Yu, Maxime Lamothe, Alain Abran, Mohammad Hamdaqa,
- Abstract要約: PyTorch関連の臭いが30個、リソースリークに関連するスニペット/ケラスの匂いが16個特定される。
それぞれの匂いに対して、少なくとも1つのベストプラクティスを導出し、50の推奨コーディングパターンを導出しました。
これは、主要なMLフレームワーク間でリソースリークを誘発するコードの臭いを調べるための、初めての包括的な研究である。
- 参考スコア(独自算出の注目度): 2.0939163364197317
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Much of the existing ML research focuses on model performance metrics, leaving limited attention to the long-term sustainability and resource efficiency of ML applications. While high performance is essential, ensuring efficient resource management is equally critical for robust deployment. This study addresses this gap by systematically identifying code smells that lead to resource leaks in ML applications. We conducted an empirical investigation of developer discussions and real-world code snippets from PyTorch, TensorFlow, and Keras. The analysis identified 30 PyTorch-related smells and 16 TensorFlow/Keras smells linked to resource leaks. These smells were categorized in two ways: (1) based on their root causes, and (2) as general ML smells with framework-specific characteristics. For each smell, we derived at least one best practice, resulting in 50 recommended coding patterns aimed at reducing resource leakage and improving efficiency. To ensure the validity of our findings, we employed a three-phase validation process involving independent analysis by three authors followed by consensus discussions. This is the first comprehensive study to examine resource-leak-inducing code smells across major ML frameworks and to present actionable best practices for mitigating them. The contributions support developers in building more efficient and sustainable ML applications and offer a structured view of the underlying causes of resource leaks.
- Abstract(参考訳): 既存のML研究の多くは、モデルパフォーマンスメトリクスに重点を置いており、MLアプリケーションの長期的な持続可能性とリソース効率に限定的な注意を払っている。
ハイパフォーマンスは不可欠だが、効率的なリソース管理を保証することは、ロバストなデプロイメントにも同様に重要である。
本研究では,MLアプリケーションのリソースリークにつながるコードの臭いを系統的に識別することで,このギャップを解消する。
我々はPyTorch、TensorFlow、Kerasの開発者ディスカッションと実世界のコードスニペットを実証的に調査した。
この分析では、PyTorch関連の臭いが30、TensorFlow/Kerasの匂いが16あった。
これらの臭いは,(1)根本原因に基づくもの,(2)フレームワーク特有の特徴を持つ一般ML臭の2つに分類された。
それぞれの匂いに対して、少なくとも1つのベストプラクティスを導き、その結果、リソースリークの低減と効率の向上を目的とした、50の推奨コーディングパターンが導出されました。
本研究の妥当性を確認するため,3人の著者による独立分析を含む3段階の検証プロセスを適用し,コンセンサスに関する議論を行った。
これは、主要なMLフレームワーク間でリソースリークを誘発するコードの臭いを調べ、それらを緩和するための実行可能なベストプラクティスを示すための、初めての包括的な研究である。
このコントリビューションは、より効率的で持続可能なMLアプリケーションの構築を支援し、リソースリークの原因を構造化したビューを提供する。
関連論文リスト
- Clean Code, Better Models: Enhancing LLM Performance with Smell-Cleaned Dataset [13.23492570818459]
この研究は、コード臭いの観点からデータセットの品質を評価し改善する最初の体系的な研究である。
コード臭を自動的に除去する,LCMベースのコード臭除去ツールSmellCCを提案する。
論文 参考訳(メタデータ) (2025-08-16T07:40:58Z) - Teaching LLM to Reason: Reinforcement Learning from Algorithmic Problems without Code [76.80306464249217]
本稿では,LLMにより良い理性を教えることを目的としたTeaRを提案する。
TeaRは、注意深いデータキュレーションと強化学習を活用して、コード関連のタスクを通じて最適な推論パスを発見するモデルをガイドする。
我々は、2つのベースモデルと3つの長いCoT蒸留モデルを用いて広範な実験を行い、モデルのサイズは15億から32億のパラメータから、Math、Knowledge、Code、Logical Reasoningにまたがる17のベンチマークにまたがる。
論文 参考訳(メタデータ) (2025-07-10T07:34:05Z) - Learning Efficient and Generalizable Graph Retriever for Knowledge-Graph Question Answering [75.12322966980003]
大規模言語モデル(LLM)は、様々な領域にわたって強い帰納的推論能力を示している。
既存のRAGパイプラインのほとんどは非構造化テキストに依存しており、解釈可能性と構造化推論を制限する。
近年,知識グラフ解答のための知識グラフとLLMの統合について検討している。
KGQAにおける効率的なグラフ検索のための新しいフレームワークであるRAPLを提案する。
論文 参考訳(メタデータ) (2025-06-11T12:03:52Z) - Performance Smells in ML and Non-ML Python Projects: A Comparative Study [10.064805853389277]
本研究では、機械学習プロジェクトと非MLプロジェクトのパフォーマンスの臭いの比較分析を行う。
以上の結果から,MLプロジェクトはMLの計算的およびデータ集約的な性質により,性能の悪臭の影響を受けやすいことが示唆された。
本研究は,MLプロジェクトのユニークな特徴に合わせて,パフォーマンス最適化戦略を調整する必要があることを明らかにする。
論文 参考訳(メタデータ) (2025-04-28T19:48:26Z) - How Propense Are Large Language Models at Producing Code Smells? A Benchmarking Study [45.126233498200534]
コードの臭いを生成するための大規模言語モデルの妥当性を評価するためのベンチマークであるCodeSmellEvalを紹介する。
当社のベンチマークには、Propensity Smelly Score (PSC) と、メソッドレベルのコードの臭いを収集したデータセットであるCodeSmellDataが含まれている。
CodeSmellEvalの使用を実証するために,CodeLlamaとMistralの2つの最先端LLMを用いてケーススタディを行った。
論文 参考訳(メタデータ) (2024-12-25T21:56:35Z) - OpenCoder: The Open Cookbook for Top-Tier Code Large Language Models [76.59316249991657]
コードのための大規模言語モデル(LLM)は、コード生成、推論タスク、エージェントシステムなど、さまざまな領域で必須になっている。
オープンアクセスのコード LLM はプロプライエタリなモデルの性能レベルに近づきつつあるが、高品質なコード LLM は依然として限られている。
トップクラスのコードLLMであるOpenCoderは、主要なモデルに匹敵するパフォーマンスを達成するだけでなく、研究コミュニティの"オープンクックブック"としても機能します。
論文 参考訳(メタデータ) (2024-11-07T17:47:25Z) - LLMDFA: Analyzing Dataflow in Code with Large Language Models [8.92611389987991]
本稿では,コンパイル不要でカスタマイズ可能なデータフロー解析フレームワークLLMDFAを提案する。
問題をいくつかのサブタスクに分解し、一連の新しい戦略を導入する。
LLMDFAは平均87.10%の精度と80.77%のリコールを達成し、F1スコアを最大0.35に向上させた。
論文 参考訳(メタデータ) (2024-02-16T15:21:35Z) - Boosting Static Resource Leak Detection via LLM-based Resource-Oriented Intention Inference [14.783216988363804]
既存の静的検出技術は、未リリースのリソースを見つけるために、事前に定義されたリソース取得/リリースAPIとnullチェック条件の機械的マッチングに依存している。
InferROIは、コード内のリソース指向の意図(取得、リリース、到達可能性検証)を直接推論する新しいアプローチである。
我々は、リソース指向の意図推論とリソースリーク検出の両方において、InferROIの有効性を評価する。
論文 参考訳(メタデータ) (2023-11-08T04:19:28Z) - Towards Realistic Low-resource Relation Extraction: A Benchmark with
Empirical Baseline Study [51.33182775762785]
本稿では,低リソース環境下での関係抽出システムを構築するための実証的研究について述べる。
低リソース環境での性能を評価するための3つのスキームについて検討する。 (i) ラベル付きラベル付きデータを用いた異なるタイプのプロンプトベース手法、 (ii) 長期分布問題に対処する多様なバランシング手法、 (iii) ラベル付きインドメインデータを生成するためのデータ拡張技術と自己学習。
論文 参考訳(メタデータ) (2022-10-19T15:46:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。