論文の概要: Automatic Identification of Machine Learning-Specific Code Smells
- arxiv url: http://arxiv.org/abs/2508.02541v1
- Date: Mon, 04 Aug 2025 15:51:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 20:32:48.735339
- Title: Automatic Identification of Machine Learning-Specific Code Smells
- Title(参考訳): 機械学習特有のコードスメルの自動識別
- Authors: Peter Hamfelt, Ricardo Britto, Lincoln Rocha, Camilo Almendra,
- Abstract要約: 本研究は、コードの臭いの基準に基づいて静的コード解析ツール(MLpylint)を設計・開発するための適切な方法とツールについて検討する。
GitHubからソースされた160のオープンソースMLアプリケーションのデータに基づいて、このツールを評価した。
その結果,MLpylintの有効性と有用性を示した。
- 参考スコア(独自算出の注目度): 2.7825105949430293
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning (ML) has rapidly grown in popularity, becoming vital to many industries. Currently, the research on code smells in ML applications lacks tools and studies that address the identification and validity of ML-specific code smells. This work investigates suitable methods and tools to design and develop a static code analysis tool (MLpylint) based on code smell criteria. This research employed the Design Science Methodology. In the problem identification phase, a literature review was conducted to identify ML-specific code smells. In solution design, a secondary literature review and consultations with experts were performed to select methods and tools for implementing the tool. We evaluated the tool on data from 160 open-source ML applications sourced from GitHub. We also conducted a static validation through an expert survey involving 15 ML professionals. The results indicate the effectiveness and usefulness of the MLpylint. We aim to extend our current approach by investigating ways to introduce MLpylint seamlessly into development workflows, fostering a more productive and innovative developer environment.
- Abstract(参考訳): 機械学習(ML)は急速に普及し、多くの産業で欠かせない存在となっている。
現在、MLアプリケーションにおけるコードの臭いの研究には、ML固有のコードの臭いの識別と妥当性に対処するツールや研究が欠けている。
本研究は、コードの臭いの基準に基づいて静的コード解析ツール(MLpylint)を設計・開発するための適切な方法とツールについて検討する。
この研究はデザインサイエンス方法論を採用した。
問題識別フェーズでは、ML固有のコードの臭いを識別するための文献レビューが行われた。
ソリューション設計では、ツールを実装する方法やツールを選択するために、二次文献レビューと専門家との協議が行われた。
GitHubからソースされた160のオープンソースMLアプリケーションのデータに基づいて、このツールを評価した。
また,15名のML専門家を対象とした専門家調査を通じて,静的な検証を行った。
その結果,MLpylintの有効性と有用性を示した。
私たちは、MLpylintを開発ワークフローにシームレスに導入する方法を調査し、より生産的で革新的な開発者環境を育むことで、現在のアプローチを拡張することを目指しています。
関連論文リスト
- ExeKGLib: A Platform for Machine Learning Analytics based on Knowledge Graphs [6.611237989022405]
ExeKGLibはグラフィカルなインターフェース層で拡張されたPythonライブラリで、最小限のML知識を持つユーザがMLパイプラインを構築することができる。
これは、MLの知識を単純な言葉で、非MLの専門家にエンコードする知識グラフに依存することで達成される。
論文 参考訳(メタデータ) (2025-08-01T07:45:49Z) - MLScent A tool for Anti-pattern detection in ML projects [5.669063174637433]
本稿では,コード臭い検出のための新しい静的解析ツールであるMLScentを紹介する。
MLScentは、主要な機械学習フレームワークに76の異なる検出器を実装している。
その結果、フレームワーク固有のアンチパターン、データハンドリングの問題、一般的なMLコードの臭いに高い精度が示される。
論文 参考訳(メタデータ) (2025-01-30T11:19:16Z) - Learning to Ask: When LLM Agents Meet Unclear Instruction [55.65312637965779]
大きな言語モデル(LLM)は、言語スキルだけでは達成不可能なタスクに対処するための外部ツールを活用することができる。
我々は、不完全な命令下でのLLMツールの使用性能を評価し、エラーパターンを分析し、Noisy ToolBenchと呼ばれる挑戦的なツール使用ベンチマークを構築した。
Ask-when-Needed (AwN) という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-31T23:06:12Z) - Tool Learning in the Wild: Empowering Language Models as Automatic Tool Agents [56.822238860147024]
大規模な言語モデルを外部ツールで拡張することは、彼らのユーティリティを拡張するための有望なアプローチとして現れました。
以前のメソッドは、ツールドキュメントを手動で解析し、コンテキスト内デモを作成し、ツールをLLMがステップバイステップの推論で使用する構造化フォーマットに変換する。
LLMがツール使用ワークフローを自動化できるフレームワークであるAutoToolsを提案する。
論文 参考訳(メタデータ) (2024-05-26T11:40:58Z) - When Code Smells Meet ML: On the Lifecycle of ML-specific Code Smells in
ML-enabled Systems [13.718420553401662]
本研究の目的は、ML特有のコードの臭いとして知られる、特定の品質関連関心事の出現と進化を調査することである。
具体的には、実際のML対応システムにおいて、ML特有のコードの臭いを経験的に分析して研究する計画を提案する。
探索的研究を行い、ML対応システムの大規模なデータセットをマイニングし、約337のプロジェクトに関する400万件のコミットを分析します。
論文 参考訳(メタデータ) (2024-03-13T07:43:45Z) - InfiBench: Evaluating the Question-Answering Capabilities of Code Large Language Models [56.723509505549536]
InfiBenchは、私たちの知識に合ったコードのための、最初の大規模フリーフォーム質問回答(QA)ベンチマークです。
慎重に選択された234の高品質なStack Overflow質問で構成されており、15のプログラミング言語にまたがっている。
InfiBench上で100以上の最新のコードLLMに対して,系統的評価を行い,新しい知見と洞察に富んだ結果を得た。
論文 参考訳(メタデータ) (2024-03-11T02:06:30Z) - LLMs in the Imaginarium: Tool Learning through Simulated Trial and Error [54.954211216847135]
既存の大規模言語モデル(LLM)は30%から60%の範囲でしか正当性に至らない。
試行錯誤(STE)を模擬したツール拡張LDMの生物学的なインスピレーション法を提案する。
STEは、試行錯誤、想像力、記憶という、生物学的システムにおけるツール使用行動の成功のための3つの重要なメカニズムを編成する。
論文 参考訳(メタデータ) (2024-03-07T18:50:51Z) - Efficient Tool Use with Chain-of-Abstraction Reasoning [63.08202389132155]
大規模言語モデル(LLM)は、現実世界の知識に対する推論の基礎となる必要がある。
マルチステップ推論問題におけるツールの実行には,微調整LDMエージェントの課題が残されている。
マルチステップ推論におけるツールの活用方法として, LLM の新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-30T21:53:30Z) - ML-Bench: Evaluating Large Language Models and Agents for Machine Learning Tasks on Repository-Level Code [76.84199699772903]
ML-Benchは、既存のコードリポジトリを利用してタスクを実行する現実世界のプログラミングアプリケーションに根ざしたベンチマークである。
LLM(Large Language Model)とAIエージェントの両方を評価するために、事前に定義されたデプロイメント環境でLLMのテキスト-コード変換を評価するML-LLM-Benchと、Linuxサンドボックス環境でエンドツーエンドのタスク実行で自律エージェントをテストするML-Agent-Benchの2つの設定が採用されている。
論文 参考訳(メタデータ) (2023-11-16T12:03:21Z) - MLAgentBench: Evaluating Language Agents on Machine Learning Experimentation [96.71370747681078]
我々は,CIFAR-10におけるモデル性能の改善から,BabyLMのような最近の研究課題まで,13のタスクからなるMLAgentBenchを紹介した。
各タスクに対して、エージェントはファイルの読み書き、コードの実行、出力の検査などのアクションを実行することができる。
我々は、Claude v1.0、Claude v2.1、Claude v3 Opus、GPT-4、GPT-4-turbo、Gemini-Pro、Mixtralに基づいてベンチマークエージェントをベンチマークし、Claude v3 Opusエージェントが成功率の点で最高であることを示す。
論文 参考訳(メタデータ) (2023-10-05T04:06:12Z) - Reasonable Scale Machine Learning with Open-Source Metaflow [2.637746074346334]
既存のツールを再購入しても、現在の生産性の問題は解決しない、と私たちは主張します。
私たちは、データ実践者の生産性を高めるために明示的に設計された、MLプロジェクトのためのオープンソースのフレームワークであるMetaflowを紹介します。
論文 参考訳(メタデータ) (2023-03-21T11:28:09Z) - The Prevalence of Code Smells in Machine Learning projects [9.722159563454436]
静的コード解析は、ソースコードの潜在的な欠陥、機会、共通のコーディング標準の違反を見つけるのに使うことができる。
74のオープンソースプロジェクトのデータセットを集め、依存関係をインストールしてPylintを実行しました。
その結果、検出されたすべてのコードの臭いのトップ20に到達した。
論文 参考訳(メタデータ) (2021-03-06T16:01:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。