論文の概要: Understanding Bugs in Multi-Language Deep Learning Frameworks
- arxiv url: http://arxiv.org/abs/2303.02695v1
- Date: Sun, 5 Mar 2023 15:19:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 18:16:05.589069
- Title: Understanding Bugs in Multi-Language Deep Learning Frameworks
- Title(参考訳): 多言語ディープラーニングフレームワークにおけるバグの理解
- Authors: Zengyang Li, Sicheng Wang, Wenshuo Wang, Peng Liang, Ran Mo, Bing Li
- Abstract要約: ディープラーニングフレームワーク(DLF)は、複数のプログラミング言語(PL)の使用によって引き起こされるバグに悩まされている
MPL DLF(MXNet, PyTorch, MXNet)の1497のバグを分析した。
PLの組み合わせ PythonとC/C++は、すべてのDLFで92%以上のMPLバグを修正するのに最も使われている。
- 参考スコア(独自算出の注目度): 12.524231041454044
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning frameworks (DLFs) have been playing an increasingly important
role in this intelligence age since they act as a basic infrastructure for an
increasingly wide range of AIbased applications. Meanwhile, as
multi-programming-language (MPL) software systems, DLFs are inevitably
suffering from bugs caused by the use of multiple programming languages (PLs).
Hence, it is of paramount significance to understand the bugs (especially the
bugs involving multiple PLs, i.e., MPL bugs) of DLFs, which can provide a
foundation for preventing, detecting, and resolving bugs in the development of
DLFs. To this end, we manually analyzed 1497 bugs in three MPL DLFs, namely
MXNet, PyTorch, and TensorFlow. First, we classified bugs in these DLFs into 12
types (e.g., algorithm design bugs and memory bugs) according to their bug
labels and characteristics. Second, we further explored the impacts of
different bug types on the development of DLFs, and found that deployment bugs
and memory bugs negatively impact the development of DLFs in different aspects
the most. Third, we found that 28.6%, 31.4%, and 16.0% of bugs in MXNet,
PyTorch, and TensorFlow are MPL bugs, respectively; the PL combination of
Python and C/C++ is most used in fixing more than 92% MPL bugs in all DLFs.
Finally, the code change complexity of MPL bug fixes is significantly greater
than that of single-programming-language (SPL) bug fixes in all the three DLFs,
while in PyTorch MPL bug fixes have longer open time and greater communication
complexity than SPL bug fixes. These results provide insights for bug
management in DLFs.
- Abstract(参考訳): ディープラーニングフレームワーク(DLF)は、ますます幅広いAIベースのアプリケーションの基盤として機能するため、このインテリジェンス時代にますます重要な役割を担っている。
一方、マルチプログラミング言語(MPL)ソフトウェアシステムとして、DLFは多言語(PL)の使用によるバグに必然的に悩まされている。
したがって、DLFのバグ(特に複数のPLを含むバグ、すなわちMPLバグ)を理解することが最重要であり、DLFの開発におけるバグの予防、検出、解決の基盤を提供することができる。
この目的のために、MXNet、PyTorch、TensorFlowという3つのMPL DLFの1497のバグを手動で分析した。
まず、これらのdlfのバグをバグラベルと特性に応じて12のタイプ(例えば、アルゴリズム設計のバグとメモリのバグ)に分類した。
第二に、さまざまなバグタイプがDLFの開発に与える影響についても検討し、デプロイバグとメモリバグがDLFの開発に最も悪影響を及ぼしていることを発見した。
第3に、mxnet、pytorch、tensorflowのバグの28.6%、31.4%、6.0%がmplバグであることが分かりました。pythonとc/c++のplの組み合わせは、すべてのdlfで92%以上のmplバグを修正するのに最も使われているのです。
最後に、MPLバグ修正のコード変更の複雑さは、3つのDLFのすべてでSPLバグ修正よりもはるかに大きいが、PyTorch MPLバグ修正はSPLバグ修正よりもオープン時間と通信の複雑さが長い。
これらの結果はDLFにおけるバグ管理の洞察を与える。
関連論文リスト
- What's Wrong with Your Code Generated by Large Language Models? An Extensive Study [80.18342600996601]
大規模言語モデル(LLM)は、標準解に比べて短いがより複雑なコードを生成する。
3つのカテゴリと12のサブカテゴリを含む誤ったコードに対するバグの分類を開発し、一般的なバグタイプに対する根本原因を分析する。
そこで本研究では,LLMがバグタイプやコンパイラフィードバックに基づいて生成したコードを批判し,修正することのできる,自己批判を導入した新たな学習自由反復手法を提案する。
論文 参考訳(メタデータ) (2024-07-08T17:27:17Z) - The Fact Selection Problem in LLM-Based Program Repair [3.7005619077967133]
コードコンテキストのような単純な構文的な詳細から、以前はPythonプロジェクトのコンテキストで探索されていなかった意味情報まで、それぞれの事実が有益であることを示す。
重要なことは、プログラム修復プロンプトの有効性は、使用済み事実の数よりも非単調であることが判明した。
我々は、特定のバグに固有の事実を抽出し、プロンプトに含める基本統計モデルManipleを開発した。
論文 参考訳(メタデータ) (2024-04-08T13:41:32Z) - A Novel Approach for Automatic Program Repair using Round-Trip
Translation with Large Language Models [50.86686630756207]
研究によると、ある文の文法的誤りは、それを他の言語に翻訳し、その語を返せば修正できる。
現在の自動プログラム修復(APR)生成モデルは、ソースコードで事前訓練され、修正のために微調整されている。
本稿では,あるプログラミング言語から別のプログラミング言語,あるいは自然言語へのコード変換,そして,その逆といった,微調整ステップをバイパスし,ラウンド・トリップ変換(RTT)を用いる手法を提案する。
論文 参考訳(メタデータ) (2024-01-15T22:36:31Z) - DebugBench: Evaluating Debugging Capability of Large Language Models [80.73121177868357]
DebugBench - LLM(Large Language Models)のベンチマーク。
C++、Java、Pythonの4つの主要なバグカテゴリと18のマイナータイプをカバーする。
ゼロショットシナリオで2つの商用および4つのオープンソースモデルを評価する。
論文 参考訳(メタデータ) (2024-01-09T15:46:38Z) - The Earth is Flat? Unveiling Factual Errors in Large Language Models [89.94270049334479]
ChatGPTのような大規模言語モデル(LLM)は、事前学習や微調整の知識が豊富にあるため、様々な応用がある。
それにもかかわらず、医療、ジャーナリズム、教育といった重要な分野に懸念を抱き、事実と常識の誤りを引き起こす傾向にある。
LLMにおける事実不正確な事実を明らかにすることを目的とした,新しい自動テストフレームワークであるFactCheckerを紹介する。
論文 参考訳(メタデータ) (2024-01-01T14:02:27Z) - GlotLID: Language Identification for Low-Resource Languages [51.38634652914054]
GlotLID-M は広い範囲、信頼性、効率性のデシラタを満たす LID モデルである。
1665の言語を識別し、以前の作業に比べてカバー範囲が大幅に増加した。
論文 参考訳(メタデータ) (2023-10-24T23:45:57Z) - A Comprehensive Empirical Study of Bugs in Open-Source Federated
Learning Frameworks [11.835104059182832]
Federated Learning(FL)は、分散機械学習(ML)パラダイムであり、複数のクライアントがクライアントのデータプライバシを公開することなく、共同でMLモデルをトレーニングすることができる。
FLの適用を促進するために、さまざまなFLフレームワークが提案されている。
FLフレームワークのバグを包括的に収集し,分類し,特徴付けるための,最初の実証的研究を行った。
論文 参考訳(メタデータ) (2023-08-09T15:14:16Z) - Explaining Software Bugs Leveraging Code Structures in Neural Machine
Translation [5.079750706023254]
Bugsplainerは、バグ修正コミットの大規模なコーパスから学ぶことによって、ソフトウェアバグの自然言語説明を生成する。
3つのパフォーマンス指標を用いて評価したところ、BugsplainerはGoogleの標準に従って理解しやすく良い説明を生成できることがわかった。
また、Bugsplainerによる説明がベースラインよりも正確で、より正確で、より有用であることが判明した、20人の参加者を対象にした開発者スタディも実施しました。
論文 参考訳(メタデータ) (2022-12-08T22:19:45Z) - Using Developer Discussions to Guide Fixing Bugs in Software [51.00904399653609]
我々は,タスク実行前に利用可能であり,また自然発生しているバグレポートの議論を,開発者による追加情報の必要性を回避して利用することを提案する。
このような議論から派生したさまざまな自然言語コンテキストがバグ修正に役立ち、オラクルのバグ修正コミットに対応するコミットメッセージの使用よりもパフォーマンスの向上につながることを実証する。
論文 参考訳(メタデータ) (2022-11-11T16:37:33Z) - ADPTriage: Approximate Dynamic Programming for Bug Triage [0.0]
オンラインバグトリアージタスクのためのマルコフ決定プロセス(MDP)モデルを開発した。
私たちはADPTriageと呼ばれるADPベースのバグトリアージソリューションを提供しています。
以上の結果から, 代入精度と固定時間の観点から, ミオピックアプローチよりも有意な改善が見られた。
論文 参考訳(メタデータ) (2022-11-02T04:42:21Z) - DABT: A Dependency-aware Bug Triaging Method [0.0]
自然言語処理と整数を利用して,適切な開発者にバグを割り当てる,Dependency-aware Bug Triaging(DABT)と呼ばれるバグトリアージ手法を提案する。
その結果,DABTは過度なバグを最大12%まで減らすことができることがわかった。
また、バグの修正時間の平均を半減します。
論文 参考訳(メタデータ) (2021-04-26T17:35:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。