論文の概要: Robin: A Novel Method to Produce Robust Interpreters for Deep
Learning-Based Code Classifiers
- arxiv url: http://arxiv.org/abs/2309.10644v1
- Date: Tue, 19 Sep 2023 14:27:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 07:09:00.592545
- Title: Robin: A Novel Method to Produce Robust Interpreters for Deep
Learning-Based Code Classifiers
- Title(参考訳): Robin: ディープラーニングベースのコード分類器のためのロバスト解釈生成法
- Authors: Zhen Li, Ruqian Zhang, Deqing Zou, Ning Wang, Yating Li, Shouhuai Xu,
Chen Chen, and Hai Jin
- Abstract要約: 深層学習に基づくコード分類器のためのアンダーラインロバストアンダーラインインタプリタを新たに作成する手法を提案する。
Robinの主要なアイデアは、インタプリタと2つの近似器を組み合わせた、新しいハイブリッド構造である。
ロビンは6.11%の忠実度(分類器での評価)、67.22%の忠実度(近似器での評価)、そして既存の3つのインタプリタより15.87倍高い。
- 参考スコア(独自算出の注目度): 27.109943458973547
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning has been widely used in source code classification tasks, such
as code classification according to their functionalities, code authorship
attribution, and vulnerability detection. Unfortunately, the black-box nature
of deep learning makes it hard to interpret and understand why a classifier
(i.e., classification model) makes a particular prediction on a given example.
This lack of interpretability (or explainability) might have hindered their
adoption by practitioners because it is not clear when they should or should
not trust a classifier's prediction. The lack of interpretability has motivated
a number of studies in recent years. However, existing methods are neither
robust nor able to cope with out-of-distribution examples. In this paper, we
propose a novel method to produce \underline{Rob}ust \underline{in}terpreters
for a given deep learning-based code classifier; the method is dubbed Robin.
The key idea behind Robin is a novel hybrid structure combining an interpreter
and two approximators, while leveraging the ideas of adversarial training and
data augmentation. Experimental results show that on average the interpreter
produced by Robin achieves a 6.11\% higher fidelity (evaluated on the
classifier), 67.22\% higher fidelity (evaluated on the approximator), and
15.87x higher robustness than that of the three existing interpreters we
evaluated. Moreover, the interpreter is 47.31\% less affected by
out-of-distribution examples than that of LEMNA.
- Abstract(参考訳): ディープラーニングはソースコードの分類タスクで広く使われており、機能に応じたコード分類、コードオーサシップの帰属、脆弱性検出などが行われている。
残念ながら、ディープラーニングのブラックボックスの性質は、なぜ分類器(すなわち分類モデル)が特定の例に対して特定の予測を行うのかを解釈し理解しにくくする。
この解釈可能性の欠如(あるいは説明可能性の欠如)は、分類器の予測を信頼すべきかどうかが明確でないため、実践者による採用を妨げる可能性がある。
解釈可能性の欠如は近年多くの研究の動機となっている。
しかし、既存のメソッドはロバストでなく、分散の例に対処できない。
本稿では,与えられた深層学習に基づくコード分類器に対して,underline{rob}ust \underline{in}terpreters を生成する新しい手法を提案する。
Robinの背景にある重要なアイデアは、インタプリタと2つの近似器を組み合わせた新しいハイブリッド構造であり、敵対的なトレーニングとデータ拡張のアイデアを活用している。
実験の結果,robinが生成したインタプリタは,平均で6.11\%高い忠実度(分類器で評価),67.22\%高い忠実度(近似器で評価),15.87倍の堅牢性が得られることがわかった。
さらに、インタプリタは、レムナのものよりも分配外例の影響を受けない47.31\%である。
関連論文リスト
- On Adversarial Examples for Text Classification by Perturbing Latent Representations [0.0]
テキスト分類における逆例に対して,ディープラーニングは脆弱であることを示す。
この弱点は、ディープラーニングがそれほど堅牢ではないことを示している。
我々は,テキスト分類器の頑健性を測定するフレームワークを,分類器の勾配を用いて構築する。
論文 参考訳(メタデータ) (2024-05-06T18:45:18Z) - Beyond the Known: Adversarial Autoencoders in Novelty Detection [2.7486022583843233]
新規性検出では、新しいデータポイントをinlierまたはoutlierに分類するかどうかを判断する。
我々は類似のフレームワークを軽量なディープネットワークで使用し、再構成誤差を伴う確率的スコアを採用する。
その結果,本手法は対象クラスを学習する上で有効であることが示唆され,いくつかのベンチマークデータセット上での最近の最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2024-04-06T00:04:19Z) - Forging the Forger: An Attempt to Improve Authorship Verification via Data Augmentation [52.72682366640554]
著者検証(英語: Authorship Verification, AV)とは、ある特定の著者によって書かれたか、別の人物によって書かれたのかを推測するテキスト分類タスクである。
多くのAVシステムは敵の攻撃に弱いことが示されており、悪意のある著者は、その書体スタイルを隠蔽するか、あるいは他の著者の書体を模倣することによって、積極的に分類者を騙そうとしている。
論文 参考訳(メタデータ) (2024-03-17T16:36:26Z) - XAL: EXplainable Active Learning Makes Classifiers Better Low-resource Learners [71.8257151788923]
低リソーステキスト分類のための新しい説明可能なアクティブラーニングフレームワーク(XAL)を提案する。
XALは分類器に対して、推論を正当化し、合理的な説明ができないラベルのないデータを掘り下げることを推奨している。
6つのデータセットの実験では、XALは9つの強いベースラインに対して一貫した改善を達成している。
論文 参考訳(メタデータ) (2023-10-09T08:07:04Z) - Understanding and Mitigating Spurious Correlations in Text
Classification with Neighborhood Analysis [69.07674653828565]
機械学習モデルは、トレーニングセットに存在するが一般的な状況では当てはまらない急激な相関を利用する傾向にある。
本稿では, 周辺分析と呼ばれる新しい視点から, 突発的相関がもたらす意味について考察する。
本稿では,テキスト分類における素早い相関を緩和する正規化手法であるNFL(doN't Forget your Language)を提案する。
論文 参考訳(メタデータ) (2023-05-23T03:55:50Z) - Class-Level Logit Perturbation [0.0]
特徴摂動とラベル摂動は、様々なディープラーニングアプローチにおいて有用であることが証明されている。
シングルラベルとマルチラベルの両方の分類タスクに対して,摂動ロジットを明示的に学習するための新しい手法が提案されている。
logit上でしか摂動しないため、既存の分類アルゴリズムと融合するためのプラグインとして使用できる。
論文 参考訳(メタデータ) (2022-09-13T00:49:32Z) - On the Usefulness of Embeddings, Clusters and Strings for Text Generator
Evaluation [86.19634542434711]
Mauveは、弦上の2つの確率分布間の情報理論のばらつきを測定する。
我々は,Mauveが誤った理由で正しいことを示し,新たに提案された分岐はハイパフォーマンスには必要ないことを示した。
テキストの構文的およびコヒーレンスレベルの特徴を符号化することで、表面的な特徴を無視しながら、文字列分布に対するクラスタベースの代替品は、単に最先端の言語ジェネレータを評価するのに良いかもしれない、と結論付けています。
論文 参考訳(メタデータ) (2022-05-31T17:58:49Z) - Chaos is a Ladder: A New Theoretical Understanding of Contrastive
Learning via Augmentation Overlap [64.60460828425502]
コントラスト学習の下流性能に関する新たな保証を提案する。
我々の新しい理論は、攻撃的なデータ強化の下で、異なるクラス内サンプルのサポートがより重なり合うという知見に基づいている。
本稿では、下流の精度とよく一致した教師なしモデル選択距離ARCを提案する。
論文 参考訳(メタデータ) (2022-03-25T05:36:26Z) - Class-Incremental Learning with Generative Classifiers [6.570917734205559]
本稿では,クラス増分学習のための新しい戦略を提案する。
本提案は,p(x|y)p(y) として分解された合同分布 p(x,y) を学習し,ベイズ則を用いた分類を行うことである。
ここでは,各学習クラスに対して,変分オートエンコーダをトレーニングすることで,この戦略を実証する。
論文 参考訳(メタデータ) (2021-04-20T16:26:14Z) - Learning and Evaluating Representations for Deep One-class
Classification [59.095144932794646]
ディープワンクラス分類のための2段階フレームワークを提案する。
まず,一級データから自己教師付き表現を学習し,学習した表現に基づいて一級分類器を構築する。
実験では、視覚領域の1クラス分類ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2020-11-04T23:33:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。