論文の概要: Syntax-Guided Program Reduction for Understanding Neural Code
Intelligence Models
- arxiv url: http://arxiv.org/abs/2205.14374v1
- Date: Sat, 28 May 2022 09:04:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-31 18:41:31.307006
- Title: Syntax-Guided Program Reduction for Understanding Neural Code
Intelligence Models
- Title(参考訳): ニューラルコードインテリジェンスモデル理解のための構文誘導型プログラムリダクション
- Authors: Md Rafiqul Islam Rabin, Aftab Hussain, Mohammad Amin Alipour
- Abstract要約: そこで本研究では,構文誘導型プログラム削減手法がより高速で,短縮プログラムにキートークンのセットが小さいことを示す。
また、入力プログラムの最大65%の逆例を生成するために、キートークンが使用できることを示す。
- 参考スコア(独自算出の注目度): 1.1924369482115011
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural code intelligence (CI) models are opaque black-boxes and offer little
insight on the features they use in making predictions. This opacity may lead
to distrust in their prediction and hamper their wider adoption in
safety-critical applications. Recently, input program reduction techniques have
been proposed to identify key features in the input programs to improve the
transparency of CI models. However, this approach is syntax-unaware and does
not consider the grammar of the programming language. In this paper, we apply a
syntax-guided program reduction technique that considers the grammar of the
input programs during reduction. Our experiments on multiple models across
different types of input programs show that the syntax-guided program reduction
technique is faster and provides smaller sets of key tokens in reduced
programs. We also show that the key tokens could be used in generating
adversarial examples for up to 65% of the input programs.
- Abstract(参考訳): neural code intelligence (ci)モデルは不透明なブラックボックスであり、予測に使用する機能についてはほとんど情報を提供していない。
この不透明さは、彼らの予測に不信をもたらし、安全クリティカルなアプリケーションで広く採用されるのを妨げる可能性がある。
近年,CIモデルの透明性向上のために,入力プログラムの主要な特徴を特定するための入力プログラム削減手法が提案されている。
しかし、このアプローチは構文を意識せず、プログラミング言語の文法を考慮しない。
本稿では,入力プログラムの文法を考慮した構文誘導型プログラム削減手法を提案する。
入力プログラムの種類によって異なる複数のモデルに対する実験により,構文誘導型プログラム削減手法がより高速であり,縮小プログラムにおいてキートークンのセットがより小さいことを示す。
また,鍵トークンは,最大65%の入力プログラムに対して,逆の例を生成するのに使用できることを示した。
関連論文リスト
- Extracting Label-specific Key Input Features for Neural Code
Intelligence Models [0.0]
コードインテリジェンス(CI)モデルは、しばしばブラックボックスであり、正しい予測を行うために学んだ入力機能についての洞察を提供しない。
本稿では,リダクション中の入力プログラムの構文に従う構文誘導型プログラムリダクション手法を適用する。
論文 参考訳(メタデータ) (2022-02-14T03:36:35Z) - Encoding Program as Image: Evaluating Visual Representation of Source
Code [2.1016374925364616]
入力プログラムのスナップショットに基づく新しいソースコード表現であるCode2Snapshotについて検討する。
入力プログラムの構文的特徴と意味的特徴を利用した最先端表現と比較する。
論文 参考訳(メタデータ) (2021-11-01T17:07:02Z) - Tea: Program Repair Using Neural Network Based on Program Information
Attention Matrix [14.596847020236657]
本稿では,ソフトウェアプログラムの構文,データフロー,制御フローの側面を捉える統一表現を提案する。
そこで我々は,この表現を用いて,NLPからトランスフォーマーモデルを誘導し,バギープログラムの理解と修正を行う手法を考案した。
論文 参考訳(メタデータ) (2021-07-17T15:49:22Z) - Enforcing Consistency in Weakly Supervised Semantic Parsing [68.2211621631765]
本稿では,関連する入力に対する出力プログラム間の整合性を利用して,スプリアスプログラムの影響を低減することを提案する。
より一貫性のあるフォーマリズムは、一貫性に基づくトレーニングを必要とせずに、モデルパフォーマンスを改善することにつながります。
論文 参考訳(メタデータ) (2021-07-13T03:48:04Z) - Latent Execution for Neural Program Synthesis Beyond Domain-Specific
Languages [97.58968222942173]
入力出力の例からCプログラムを合成する第一歩を踏み出す。
特に,部分生成プログラムの実行を近似するために潜在表現を学習するLa Synthを提案する。
これらのプログラムのトレーニングにより,Karel と C のプログラム合成における予測性能がさらに向上することを示す。
論文 参考訳(メタデータ) (2021-06-29T02:21:32Z) - Improving Compositionality of Neural Networks by Decoding
Representations to Inputs [83.97012077202882]
我々は、ニューラルネットワークのアクティベーションを制約し、入力に"デコード"するように生成モデルを共同で訓練することで、従来のディープラーニングプログラムの利点を橋渡しする。
本稿では,デオード可能な表現の分布外検出,逆例,校正,公平性への応用を実証する。
論文 参考訳(メタデータ) (2021-06-01T20:07:16Z) - How could Neural Networks understand Programs? [67.4217527949013]
ソースコードにnlpプリトレーニング技術を直接適用するか、あるいはtheshelfによってモデルに機能を追加するかで、プログラムをより理解するためのモデルを構築するのは難しい。
本研究では,(1)操作セマンティクスの基本操作とよく一致する表現と(2)環境遷移の情報からなる情報から,モデルが学ぶべき新しいプログラムセマンティクス学習パラダイムを提案する。
論文 参考訳(メタデータ) (2021-05-10T12:21:42Z) - Representing Partial Programs with Blended Abstract Semantics [62.20775388513027]
プログラム合成エンジンにおける部分的なプログラム表現手法について紹介する。
モジュラーニューラルネットワークとして実装された近似実行モデルを学ぶ。
これらのハイブリッドニューロシンボリック表現は、実行誘導型シンセサイザーがより強力な言語構成を使うことができることを示す。
論文 参考訳(メタデータ) (2020-12-23T20:40:18Z) - Latent Programmer: Discrete Latent Codes for Program Synthesis [56.37993487589351]
プログラム合成や文書要約などの多くのシーケンス学習タスクにおいて、重要な問題は出力シーケンスの広い空間を探索することである。
本稿では,検索対象とする出力の表現を学習することを提案する。
本稿では,まず入力/出力サンプルから離散潜在コードを予測するプログラム合成手法であるemphLatent Programmerを紹介し,そのプログラムを対象言語で生成する。
論文 参考訳(メタデータ) (2020-12-01T10:11:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。