論文の概要: The Power of Types: Exploring the Impact of Type Checking on Neural Bug Detection in Dynamically Typed Languages
- arxiv url: http://arxiv.org/abs/2411.15368v2
- Date: Thu, 16 Jan 2025 05:40:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-17 15:08:25.300445
- Title: The Power of Types: Exploring the Impact of Type Checking on Neural Bug Detection in Dynamically Typed Languages
- Title(参考訳): 型パワー:動的型付け言語における型チェックが神経バグ検出に及ぼす影響を探る
- Authors: Boqi Chen, José Antonio Hernández López, Gunter Mussbacher, Dániel Varró,
- Abstract要約: 種々の誤用バグに対する各種神経バグ検出装置に対する型チェックの影響について検討した。
以上の結果から,既存のバグ検出データセットには,タイプ関連バグのかなりの割合が含まれていることが示唆された。
- 参考スコア(独自算出の注目度): 2.8411447872487674
- License:
- Abstract: Motivation: Automated bug detection in dynamically typed languages such as Python is essential for maintaining code quality. The lack of mandatory type annotations in such languages can lead to errors that are challenging to identify early with traditional static analysis tools. Recent progress in deep neural networks has led to increased use of neural bug detectors. In statically typed languages, a type checker is integrated into the compiler and thus taken into consideration when the neural bug detector is designed for these languages. Problem: However, prior studies overlook this aspect during the training and testing of neural bug detectors for dynamically typed languages. When an optional type checker is used, assessing existing neural bug detectors on bugs easily detectable by type checkers may impact their performance estimation. Moreover, including these bugs in the training set of neural bug detectors can shift their detection focus toward the wrong type of bugs. Contribution: We explore the impact of type checking on various neural bug detectors for variable misuse bugs, a common type targeted by neural bug detectors. Existing synthetic and real-world datasets are type-checked to evaluate the prevalence of type-related bugs. Then, we investigate how type-related bugs influence the training and testing of the neural bug detectors. Findings: Our findings indicate that existing bug detection datasets contain a significant proportion of type-related bugs. Building on this insight, we discover integrating the neural bug detector with a type checker can be beneficial, especially when the code is annotated with types. Further investigation reveals neural bug detectors perform better on type-related bugs than other bugs. Moreover, removing type-related bugs from the training data helps improve neural bug detectors' ability to identify bugs beyond the scope of type checkers.
- Abstract(参考訳): モチベーション: Pythonのような動的型付け言語における自動バグ検出は、コード品質を維持する上で不可欠である。
このような言語に必須の型アノテーションがないことは、従来の静的解析ツールで早期に識別することが難しいエラーにつながる可能性がある。
ディープニューラルネットワークの最近の進歩は、神経バグ検出器の使用の増加につながっている。
静的型付け言語では、型チェッカーがコンパイラに統合され、ニューラルバグ検出器がこれらの言語用に設計されている場合、考慮される。
しかし、従来の研究では、動的型付け言語のための神経バグ検出器のトレーニングとテストにおいて、この側面を見落としていた。
オプションの型チェッカーを使用する場合、型チェッカーによって検出可能なバグの既存の神経バグ検出を評価すれば、パフォーマンス評価に影響を及ぼす可能性がある。
さらに、これらのバグをトレーニングセットに含めることで、検出対象を間違ったタイプのバグにシフトすることができる。
コントリビューション: 可変誤用バグに対する各種神経バグ検出装置に対する型チェックの影響について検討する。
既存の合成および実世界のデータセットは、タイプ関連バグの頻度を評価するためにタイプチェックされる。
次に,タイプ関連バグが神経バグ検出装置のトレーニングとテストにどのように影響するかを検討する。
findings: 既存のバグ検出データセットには,タイプ関連バグのかなりの割合が含まれていることが示唆された。
この洞察に基づいて、特にコードが型で注釈付けされている場合、ニューラルバグ検出器と型チェッカーを統合することは有益である。
さらなる調査により、ニューラルバグ検出装置は、他のバグよりもタイプ関連バグに優れた性能を発揮することが明らかになった。
さらに、トレーニングデータから型関連バグを取り除くことで、型チェッカーの範囲を超えてバグを識別する神経バグ検出機能が改善される。
関連論文リスト
- Assaying on the Robustness of Zero-Shot Machine-Generated Text Detectors [57.7003399760813]
先進的なLarge Language Models (LLMs) とその特殊な変種を探索し、いくつかの方法でこの分野に寄与する。
トピックと検出性能の間に有意な相関関係が発見された。
これらの調査は、様々なトピックにまたがるこれらの検出手法の適応性と堅牢性に光を当てた。
論文 参考訳(メタデータ) (2023-12-20T10:53:53Z) - Feature Map Testing for Deep Neural Networks [6.931570234442819]
機能マップレベルからDNNをテストするDeepFeatureを提案する。
DeepFeatureは高い障害検出率を持ち、より多くの種類の障害を検出することができる(DeepFeatureをカバレッジ誘導選択技術と比較すると、障害検出率は49.32%向上する)。
論文 参考訳(メタデータ) (2023-07-21T13:15:15Z) - Can AI-Generated Text be Reliably Detected? [50.95804851595018]
大規模言語モデル(LLM)は、様々なアプリケーションで非常によく機能します。
盗作、偽ニュースの発生、スパムなどの活動においてこれらのモデルが誤用される可能性があることは、彼らの責任ある使用に対する懸念を引き起こしている。
我々は、攻撃者の存在下で、これらのAIテキスト検出装置の堅牢性を強調テストする。
論文 参考訳(メタデータ) (2023-03-17T17:53:19Z) - Auto-labelling of Bug Report using Natural Language Processing [0.0]
ルールとクエリベースのソリューションは、明確なランキングのない、潜在的な類似バグレポートの長いリストを推奨します。
本論文では,NLP手法の組み合わせによる解を提案する。
カスタムデータトランスフォーマー、ディープニューラルネットワーク、および非汎用機械学習メソッドを使用して、既存の同一バグレポートを検索する。
論文 参考訳(メタデータ) (2022-12-13T02:32:42Z) - Infrared: A Meta Bug Detector [10.541969253100815]
我々はメタバグ検出と呼ばれる新しいアプローチを提案し、既存の学習ベースのバグ検出よりも3つの重要な利点を提供している。
我々のメタバグ検出装置(MBD)は,ヌルポインタの参照,配列インデックスのアウト・オブ・バウンド,ファイルハンドルのリーク,さらには並列プログラムにおけるデータ競合など,さまざまなバグの発見に有効であることを示す。
論文 参考訳(メタデータ) (2022-09-18T09:08:51Z) - VPN: Verification of Poisoning in Neural Networks [11.221552724154988]
我々は、別のニューラルネットワークセキュリティ問題、すなわちデータ中毒について研究する。
この場合、アタッカーがトレーニングデータのサブセットにトリガーを挿入するので、テスト時にこのトリガーが入力され、トレーニングされたモデルがターゲットクラスに誤って分類される。
我々は、市販の検証ツールでチェックできるプロパティとして、データ中毒のチェックを定式化する方法を示す。
論文 参考訳(メタデータ) (2022-05-08T15:16:05Z) - DapStep: Deep Assignee Prediction for Stack Trace Error rePresentation [61.99379022383108]
本稿では,バグトリアージ問題を解決するための新しいディープラーニングモデルを提案する。
モデルは、注目された双方向のリカレントニューラルネットワークと畳み込みニューラルネットワークに基づいている。
ランキングの質を向上させるために,バージョン管理システムのアノテーションから追加情報を利用することを提案する。
論文 参考訳(メタデータ) (2022-01-14T00:16:57Z) - DeepMutants: Training neural bug detectors with contextual mutations [0.799536002595393]
学習ベースのバグ検知器は、自然なヒントを利用して、大きなコードベースのバグを見つけることを約束する。
それでも、既存のテクニックは、現実的なバグを提示するとパフォーマンスが低下する傾向があります。
本稿では,自然かつ現実的な欠陥を動的にコードに注入する新しい文脈突然変異演算子を提案する。
論文 参考訳(メタデータ) (2021-07-14T12:45:48Z) - Understanding Classifier Mistakes with Generative Models [88.20470690631372]
ディープニューラルネットワークは教師付き学習タスクに有効であるが、脆弱であることが示されている。
本稿では、生成モデルを利用して、分類器が一般化に失敗するインスタンスを特定し、特徴付ける。
我々のアプローチは、トレーニングセットのクラスラベルに依存しないため、半教師付きでトレーニングされたモデルに適用できる。
論文 参考訳(メタデータ) (2020-10-05T22:13:21Z) - On the Robustness of Language Encoders against Grammatical Errors [66.05648604987479]
我々は、非ネイティブ話者から実際の文法的誤りを収集し、これらの誤りをクリーンテキストデータ上でシミュレートするために敵攻撃を行う。
結果,全ての試験モデルの性能は影響するが,影響の程度は異なることがわかった。
論文 参考訳(メタデータ) (2020-05-12T11:01:44Z) - Limits of Detecting Text Generated by Large-Scale Language Models [65.46403462928319]
誤情報キャンペーンで使用される可能性があるため、長く一貫性のあるテキストを生成できる大規模な言語モデルが危険であると考える者もいる。
ここでは、仮説テスト問題として大規模言語モデル出力検出を定式化し、テキストを真あるいは生成されたものと分類する。
論文 参考訳(メタデータ) (2020-02-09T19:53:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。