論文の概要: On the Effectiveness of Machine Learning-based Call Graph Pruning: An
Empirical Study
- arxiv url: http://arxiv.org/abs/2402.07294v1
- Date: Sun, 11 Feb 2024 20:15:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-13 16:18:08.440953
- Title: On the Effectiveness of Machine Learning-based Call Graph Pruning: An
Empirical Study
- Title(参考訳): 機械学習によるコールグラフプルーニングの有効性に関する実証的研究
- Authors: Amir M. Mir, Mehdi Keshani, Sebastian Proksch
- Abstract要約: テストカバレッジの高い実世界のJavaプログラムのデータセットであるNYXCorpusを紹介します。
テスト実行からトレースを収集し、動的CGの基礎となる真実を構築します。
我々はこれらのCGを活用し、MLベースのCGプルーナーのトレーニングおよび推論における保守的なプルーニング戦略を探索する。
- 参考スコア(独自算出の注目度): 6.061938153713551
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Static call graph (CG) construction often over-approximates call relations,
leading to sound, but imprecise results. Recent research has explored machine
learning (ML)-based CG pruning as a means to enhance precision by eliminating
false edges. However, current methods suffer from a limited evaluation dataset,
imbalanced training data, and reduced recall, which affects practical
downstream analyses. Prior results were also not compared with advanced static
CG construction techniques yet. This study tackles these issues. We introduce
the NYXCorpus, a dataset of real-world Java programs with high test coverage
and we collect traces from test executions and build a ground truth of dynamic
CGs. We leverage these CGs to explore conservative pruning strategies during
the training and inference of ML-based CG pruners. We conduct a comparative
analysis of static CGs generated using zero control flow analysis (0-CFA) and
those produced by a context-sensitive 1-CFA algorithm, evaluating both with and
without pruning. We find that CG pruning is a difficult task for real-world
Java projects and substantial improvements in the CG precision (+25%) meet
reduced recall (-9%). However, our experiments show promising results: even
when we favor recall over precision by using an F2 metric in our experiments,
we can show that pruned CGs have comparable quality to a context-sensitive
1-CFA analysis while being computationally less demanding. Resulting CGs are
much smaller (69%), and substantially faster (3.5x speed-up), with virtually
unchanged results in our downstream analysis.
- Abstract(参考訳): 静的なコールグラフ(CG)の構築は、しばしば過剰なアポキシメートが関係を呼び出し、音を出すが不正確である。
近年, 機械学習によるCGプルーニングを, 偽エッジの除去による精度向上の手段として研究している。
しかし、現在の手法では、限られた評価データセット、不均衡なトレーニングデータ、リコールの削減に苦しめられている。
以前の結果も高度な静的CG構築技術と比較されなかった。
この研究はこれらの問題に取り組む。
我々は、テストカバレッジの高い実世界のJavaプログラムのデータセットであるNYXCorpusを紹介し、テスト実行からトレースを収集し、動的CGの基礎的な真実を構築する。
我々はこれらのCGを活用し、MLベースのCGプルーナーのトレーニングおよび推論における保守的なプルーニング戦略を探索する。
ゼロ制御フロー解析 (0-CFA) と文脈依存型1-CFAアルゴリズムを用いて生成された静的CGの比較分析を行い, プルーニングと無作為の評価を行った。
CGプルーニングは実世界のJavaプロジェクトでは難しい課題であり、CG精度(+25%)はリコールの削減(-9%)に大きく改善されている。
実験では,f2メトリックを用いた精度のリコールを希望する場合でも,pruned cgsは計算量が少なく,文脈に敏感な1-cfa解析と同等の品質を持つことを示すことができる。
その結果、CGはより小さく(69%)、大幅に速く(3.5倍のスピードアップ)、ダウンストリーム分析の結果はほとんど変わっていない。
関連論文リスト
- Learn2Aggregate: Supervised Generation of Chvátal-Gomory Cuts Using Graph Neural Networks [24.126826148945586]
混合整数線形プログラミング(MILP)におけるChv'atal-Gomory(CG)カットの生成を最適化するための機械学習フレームワークを提案する。
このフレームワークは、CGカット生成におけるアグリゲーションに有用な制約を分類するために、グラフニューラルネットワークを訓練する。
本手法は,標準CG法と同程度の積分性ギャップを約$textittwice$で埋めると同時に,40$%高速に動作させる。
論文 参考訳(メタデータ) (2024-09-10T14:41:46Z) - CARL-G: Clustering-Accelerated Representation Learning on Graphs [18.763104937800215]
本稿では,クラスタ検証指標(CVI)にインスパイアされた損失を利用したグラフ表現学習のための新しいクラスタリングベースのフレームワークを提案する。
CARL-Gはクラスタリング法やCVIに適応し,クラスタリング法とCVIの適切な選択により,CARL-Gは4/5データセットのノード分類ベースラインを最大79倍のトレーニングスピードアップで上回ることを示す。
論文 参考訳(メタデータ) (2023-06-12T08:14:42Z) - Re-Evaluating LiDAR Scene Flow for Autonomous Driving [80.37947791534985]
自己教師型LiDARシーンフローの一般的なベンチマークは、動的動き、非現実的な対応、非現実的なサンプリングパターンの非現実的な速度を持つ。
実世界のデータセットのスイート上で,トップメソッドのスイートを評価する。
学習に重点を置いているにもかかわらず、ほとんどのパフォーマンス向上は前処理と後処理のステップによって引き起こされる。
論文 参考訳(メタデータ) (2023-04-04T22:45:50Z) - Boosting Differentiable Causal Discovery via Adaptive Sample Reweighting [62.23057729112182]
異なるスコアに基づく因果探索法は観測データから有向非巡回グラフを学習する。
本稿では,Reweighted Score関数ReScoreの適応重みを動的に学習することにより因果発見性能を向上させるためのモデルに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T14:49:59Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - Comprehensive Graph Gradual Pruning for Sparse Training in Graph Neural
Networks [52.566735716983956]
本稿では,CGPと呼ばれるグラフの段階的プルーニングフレームワークを動的にGNNに提案する。
LTHに基づく手法とは異なり、提案手法では再学習を必要とせず、計算コストを大幅に削減する。
提案手法は,既存の手法の精度を一致させたり,あるいは超えたりしながら,トレーニングと推論の効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-18T14:23:31Z) - From Spectral Graph Convolutions to Large Scale Graph Convolutional
Networks [0.0]
グラフ畳み込みネットワーク(GCN)は、様々なタスクにうまく適用された強力な概念であることが示されている。
古典グラフ理論の関連部分を含むGCNの定義への道を開いた理論を考察する。
論文 参考訳(メタデータ) (2022-07-12T16:57:08Z) - Accelerating Deep Learning with Dynamic Data Pruning [0.0]
ディープラーニングは、最先端のネットワークをトレーニングするために強力なコンピューティングシステムへのアクセスを必要とするため、違法にコストがかかるようになった。
forget scoresやGraNd/EL2N scoresといった以前の作業では、完全なデータセット内の重要なサンプルを特定し、残りのサンプルを刈り取ることで、エポック毎のイテレーションを減らすことができる。
本稿では,強化学習手法に基づく2つのアルゴリズムを提案し,ランダムな動的手法よりも高い精度でサンプルを動的にプーンする。
論文 参考訳(メタデータ) (2021-11-24T16:47:34Z) - Augmentation Strategies for Learning with Noisy Labels [3.698228929379249]
ノイズラベル付き学習」問題に取り組むアルゴリズムについて,様々な拡張戦略を評価した。
ロスモデリングタスクと学習のための別のセットに拡張の1つのセットを使用することが最も効果的であることがわかります。
我々は,この拡張戦略を最先端技術に導入し,評価されたすべての騒音レベルにおける性能向上を実証する。
論文 参考訳(メタデータ) (2021-03-03T02:19:35Z) - Parameter-free Locally Accelerated Conditional Gradients [91.19349793915615]
私たちは小説を紹介します。
自由局所加速cg(pf-lacg)アルゴリズムは,厳密な収束保証を提供する。
我々の理論結果は,局所加速度を実証し,非加速アルゴリズムに対するPF-LaCGの実用的改善を示す数値実験によって補完される。
論文 参考訳(メタデータ) (2021-02-12T22:50:01Z) - Top-k Training of GANs: Improving GAN Performance by Throwing Away Bad
Samples [67.11669996924671]
GAN(Generative Adversarial Network)トレーニングアルゴリズムに,簡単な修正(一行のコード)を導入する。
ジェネレータパラメータを更新するとき、批判者が最も現実的に評価するバッチの要素から勾配のコントリビューションをゼロにします。
このトップk更新の手順が一般的に適用可能な改善であることを示す。
論文 参考訳(メタデータ) (2020-02-14T19:27:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。