論文の概要: Extracting Label-specific Key Input Features for Neural Code
Intelligence Models
- arxiv url: http://arxiv.org/abs/2202.06474v1
- Date: Mon, 14 Feb 2022 03:36:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-15 18:20:15.169398
- Title: Extracting Label-specific Key Input Features for Neural Code
Intelligence Models
- Title(参考訳): ニューラルネットワークモデルのためのラベル固有キー入力特徴の抽出
- Authors: Md Rafiqul Islam Rabin
- Abstract要約: コードインテリジェンス(CI)モデルは、しばしばブラックボックスであり、正しい予測を行うために学んだ入力機能についての洞察を提供しない。
本稿では,リダクション中の入力プログラムの構文に従う構文誘導型プログラムリダクション手法を適用する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The code intelligence (CI) models are often black-box and do not offer any
insights on the input features that they learn for making correct predictions.
This opacity may lead to distrust in their prediction and hamper their wider
adoption in safety-critical applications. In recent, the program reduction
technique is widely being used to identify key input features in order to
explain the prediction of CI models. The approach removes irrelevant parts from
an input program and keeps the minimal snippets that a CI model needs to
maintain its prediction. However, the state-of-the-art approaches mainly use a
syntax-unaware program reduction technique that does not follow the syntax of
programs, which adds significant overhead to the reduction of input programs
and explainability of models. In this paper, we apply a syntax-guided program
reduction technique that follows the syntax of input programs during reduction.
Our experiments on multiple models across different types of input programs
show that the syntax-guided program reduction technique significantly
outperforms the syntax-unaware program reduction technique in reducing the size
of input programs. Extracting key input features from reduced programs reveals
that the syntax-guided reduced programs contain more label-specific key input
features and are more vulnerable to adversarial transformation when renaming
the key tokens in programs. These label-specific key input features may help to
understand the reasoning of models' prediction from different perspectives and
increase the trustworthiness to correct classification given by CI models.
- Abstract(参考訳): コードインテリジェンス(ci)モデルは、しばしばブラックボックスであり、正しい予測を行うために学習する入力機能についての洞察を提供しません。
この不透明さは、彼らの予測に不信をもたらし、安全クリティカルなアプリケーションで広く採用されるのを妨げる可能性がある。
近年、CIモデルの予測を説明するために重要な入力特徴を特定するためにプログラム削減技術が広く用いられている。
このアプローチは、入力プログラムから無関係な部分を取り除き、CIモデルがその予測を維持するために必要な最小限のスニペットを保持する。
しかし、最先端のアプローチは、主に、プログラムの構文に従わない構文非認識のプログラム削減技術を用いており、入力プログラムの削減とモデルの説明可能性に大きなオーバーヘッドをもたらす。
本稿では,リダクション中の入力プログラムの構文に従う構文誘導型プログラムリダクション手法を適用する。
様々な入力プログラムを対象とした複数のモデルを用いた実験により,構文誘導型プログラム削減手法は,入力プログラムのサイズを小さくする構文認識型プログラム還元手法を著しく上回っていることが示された。
削減プログラムからキー入力機能を抽出すると、構文誘導型リダクションプログラムはラベル固有のキー入力機能を含み、プログラム内のキートークンをリネームする際の逆変換に弱いことが分かる。
これらのラベル固有の重要な入力機能は、異なる視点からモデルの予測を推論し、CIモデルによって与えられる正しい分類に対する信頼性を高めるのに役立つ。
関連論文リスト
- Generative Input: Towards Next-Generation Input Methods Paradigm [49.98958865125018]
我々はGeneInputという新しい生成入力パラダイムを提案する。
すべての入力シナリオと他のインテリジェントな補助入力関数を処理するためにプロンプトを使用し、ユーザーフィードバックでモデルを最適化し、パーソナライズされた結果を提供する。
その結果,FK2C(Full-mode Key-sequence to Characters)タスクにおいて,最先端のパフォーマンスを初めて達成したことを示す。
論文 参考訳(メタデータ) (2023-11-02T12:01:29Z) - Improving Input-label Mapping with Demonstration Replay for In-context
Learning [67.57288926736923]
In-context Learning (ICL)は、大規模な自己回帰言語モデルの出現する能力である。
Sliding Causal Attention (RdSca) と呼ばれる新しいICL法を提案する。
ICL実験において,本手法は入力ラベルマッピングを大幅に改善することを示す。
論文 参考訳(メタデータ) (2023-10-30T14:29:41Z) - PERFOGRAPH: A Numerical Aware Program Graph Representation for
Performance Optimization and Program Analysis [12.778336318809092]
最新の機械学習メソッドを採用する上で重要な課題は、プログラミング言語の表現である。
本稿では,現在のプログラム表現の限界と課題を克服するため,PERFOGRAPHと呼ばれるグラフベースのプログラム表現を提案する。
PerFOGRAPHは、新しいノードとエッジを導入することで、数値情報と集約データ構造をキャプチャできる。
論文 参考訳(メタデータ) (2023-05-31T21:59:50Z) - Syntax-Guided Program Reduction for Understanding Neural Code
Intelligence Models [1.1924369482115011]
そこで本研究では,構文誘導型プログラム削減手法がより高速で,短縮プログラムにキートークンのセットが小さいことを示す。
また、入力プログラムの最大65%の逆例を生成するために、キートークンが使用できることを示す。
論文 参考訳(メタデータ) (2022-05-28T09:04:57Z) - Tea: Program Repair Using Neural Network Based on Program Information
Attention Matrix [14.596847020236657]
本稿では,ソフトウェアプログラムの構文,データフロー,制御フローの側面を捉える統一表現を提案する。
そこで我々は,この表現を用いて,NLPからトランスフォーマーモデルを誘導し,バギープログラムの理解と修正を行う手法を考案した。
論文 参考訳(メタデータ) (2021-07-17T15:49:22Z) - Enforcing Consistency in Weakly Supervised Semantic Parsing [68.2211621631765]
本稿では,関連する入力に対する出力プログラム間の整合性を利用して,スプリアスプログラムの影響を低減することを提案する。
より一貫性のあるフォーマリズムは、一貫性に基づくトレーニングを必要とせずに、モデルパフォーマンスを改善することにつながります。
論文 参考訳(メタデータ) (2021-07-13T03:48:04Z) - Latent Execution for Neural Program Synthesis Beyond Domain-Specific
Languages [97.58968222942173]
入力出力の例からCプログラムを合成する第一歩を踏み出す。
特に,部分生成プログラムの実行を近似するために潜在表現を学習するLa Synthを提案する。
これらのプログラムのトレーニングにより,Karel と C のプログラム合成における予測性能がさらに向上することを示す。
論文 参考訳(メタデータ) (2021-06-29T02:21:32Z) - Improving Compositionality of Neural Networks by Decoding
Representations to Inputs [83.97012077202882]
我々は、ニューラルネットワークのアクティベーションを制約し、入力に"デコード"するように生成モデルを共同で訓練することで、従来のディープラーニングプログラムの利点を橋渡しする。
本稿では,デオード可能な表現の分布外検出,逆例,校正,公平性への応用を実証する。
論文 参考訳(メタデータ) (2021-06-01T20:07:16Z) - Representing Partial Programs with Blended Abstract Semantics [62.20775388513027]
プログラム合成エンジンにおける部分的なプログラム表現手法について紹介する。
モジュラーニューラルネットワークとして実装された近似実行モデルを学ぶ。
これらのハイブリッドニューロシンボリック表現は、実行誘導型シンセサイザーがより強力な言語構成を使うことができることを示す。
論文 参考訳(メタデータ) (2020-12-23T20:40:18Z) - Incremental maintenance of overgrounded logic programs with tailored
simplifications [0.966840768820136]
単調に成長する命題プログラムを生成するための新しい戦略を導入する。
従来の手法では、カスタマイズされた単純化技術により、インスタンス化されたプログラムのサイズが小さくなる。
論文 参考訳(メタデータ) (2020-08-06T21:50:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。