論文の概要: Improving Deep Learning Library Testing with Machine Learning
- arxiv url: http://arxiv.org/abs/2602.03755v1
- Date: Tue, 03 Feb 2026 17:19:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.598292
- Title: Improving Deep Learning Library Testing with Machine Learning
- Title(参考訳): 機械学習によるディープラーニングライブラリテストの改善
- Authors: Facundo Molina, M M Abid Naziri, Feiran Qin, Alessandra Gorla, Marcelo d'Amorim,
- Abstract要約: 機械学習(ML)を用いて入力妥当性を判定する。
形状関係は、具体的な入力とデータのキャプチャを符号化するための正確な抽象化である。
ML強化入力分類は,DLライブラリテストの大規模化に有効であることを示す。
- 参考スコア(独自算出の注目度): 40.21709249669499
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Deep Learning (DL) libraries like TensorFlow and Pytorch simplify machine learning (ML) model development but are prone to bugs due to their complex design. Bug-finding techniques exist, but without precise API specifications, they produce many false alarms. Existing methods to mine API specifications lack accuracy. We explore using ML classifiers to determine input validity. We hypothesize that tensor shapes are a precise abstraction to encode concrete inputs and capture relationships of the data. Shape abstraction severely reduces problem dimensionality, which is important to facilitate ML training. Labeled data are obtained by observing runtime outcomes on a sample of inputs and classifiers are trained on sets of labeled inputs to capture API constraints. Our evaluation, conducted over 183 APIs from TensorFlow and Pytorch, shows that the classifiers generalize well on unseen data with over 91% accuracy. Integrating these classifiers into the pipeline of ACETest, a SoTA bug-finding technique, improves its pass rate from ~29% to ~61%. Our findings suggest that ML-enhanced input classification is an important aid to scale DL library testing.
- Abstract(参考訳): TensorFlowやPytorchといったディープラーニング(DL)ライブラリは、機械学習(ML)モデル開発を単純化するが、複雑な設計のためバグが多い。
バグフィリング技術は存在するが、正確なAPI仕様がなければ、多くの誤報を発生させる。
API仕様をマイニングする既存の方法には正確性がない。
ML分類器を用いて入力妥当性を判定する。
我々は、テンソル形状が具体的な入力を符号化し、データの関連性を捉えるための正確な抽象化であると仮定する。
形状抽象化はMLトレーニングを促進する上で重要な問題次元を著しく削減する。
ラベル付きデータは、インプットのサンプルで実行結果を観察して取得され、ラベル付きインプットのセットでトレーニングされ、API制約をキャプチャする。
TensorFlowとPytorchの183以上のAPIで評価したところ、分類器は91%以上の精度で未確認データに対してよく一般化していることがわかった。
これらの分類器を、SOTAバグフィニング技術であるACETestのパイプラインに統合することで、パスレートを29%から61%に改善する。
以上の結果から,ML強化型入力分類はDLライブラリテストの大規模化に有効であることが示唆された。
関連論文リスト
- Testing Deep Learning Libraries via Neurosymbolic Constraint Learning [3.491101173753068]
ディープラーニング(DL)ライブラリ(例えばPyTorch)はAI開発で人気がある。
DLライブラリをテストする上で重要な課題は、API仕様の欠如である。
動的に学習された入力制約を用いてDLライブラリAPIをテストする最初のニューロシンボリック手法であるCentaurを開発する。
論文 参考訳(メタデータ) (2026-01-21T21:54:41Z) - Constraint-Guided Unit Test Generation for Machine Learning Libraries [8.883254370291256]
PyTorchやtensorといった機械学習(ML)ライブラリは、幅広い現代的なアプリケーションに必須である。
テストを通じてMLライブラリの正しさを保証することが重要です。
本稿では,これらの制約を活用するためにPynguinテストジェネレータを改善するアプローチであるPynguinMLを提案する。
論文 参考訳(メタデータ) (2025-10-10T08:02:15Z) - Your Fix Is My Exploit: Enabling Comprehensive DL Library API Fuzzing with Large Language Models [49.214291813478695]
AIアプリケーションで広く使用されているディープラーニング(DL)ライブラリは、オーバーフローやバッファフリーエラーなどの脆弱性を含むことが多い。
従来のファジィングはDLライブラリの複雑さとAPIの多様性に悩まされている。
DLライブラリのためのLLM駆動ファジィ手法であるDFUZZを提案する。
論文 参考訳(メタデータ) (2025-01-08T07:07:22Z) - Subgraph-Oriented Testing for Deep Learning Libraries [9.78188667672054]
我々は,異なるハードウェアプラットフォーム上でディープラーニング(DL)ライブラリをテストするためのSORT(Subgraph-Oriented Realistic Testing)を提案する。
SORTは、テスト対象として、しばしばモデルグラフのサブグラフとして表現される、人気のあるAPIインタラクションパターンを採用している。
SORTは100%有効な入力生成率を実現し、既存のメソッドよりも精度の高いバグを検出し、シングルAPIテストで欠落したインタラクション関連のバグを明らかにする。
論文 参考訳(メタデータ) (2024-12-09T12:10:48Z) - Enhancing Differential Testing With LLMs For Testing Deep Learning Libraries [8.779035160734523]
本稿では,DLライブラリのためのLLM強化差分試験手法を提案する。
与えられたAPIの代替実装を見つけ、多様なテストインプットを生成するという課題に対処する。
最先端技術で見られるAPIの1.84倍の数のAPIを合成する。
論文 参考訳(メタデータ) (2024-06-12T07:06:38Z) - XAL: EXplainable Active Learning Makes Classifiers Better Low-resource Learners [71.8257151788923]
低リソーステキスト分類のための新しい説明可能なアクティブラーニングフレームワーク(XAL)を提案する。
XALは分類器に対して、推論を正当化し、合理的な説明ができないラベルのないデータを掘り下げることを推奨している。
6つのデータセットの実験では、XALは9つの強いベースラインに対して一貫した改善を達成している。
論文 参考訳(メタデータ) (2023-10-09T08:07:04Z) - Few-Shot Non-Parametric Learning with Deep Latent Variable Model [50.746273235463754]
遅延変数を用いた圧縮による非パラメトリック学習(NPC-LV)を提案する。
NPC-LVは、ラベルなしデータが多いがラベル付きデータはほとんどないデータセットの学習フレームワークである。
我々は,NPC-LVが低データ構造における画像分類における3つのデータセットの教師あり手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-23T09:35:03Z) - Combining Feature and Instance Attribution to Detect Artifacts [62.63504976810927]
トレーニングデータアーティファクトの識別を容易にする手法を提案する。
提案手法は,トレーニングデータのアーティファクトの発見に有効であることを示す。
我々は,これらの手法が実際にNLP研究者にとって有用かどうかを評価するために,小規模なユーザスタディを実施している。
論文 参考訳(メタデータ) (2021-07-01T09:26:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。