論文の概要: A Survey of Trojans in Neural Models of Source Code: Taxonomy and
Techniques
- arxiv url: http://arxiv.org/abs/2305.03803v4
- Date: Wed, 21 Jun 2023 21:47:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 12:03:31.979568
- Title: A Survey of Trojans in Neural Models of Source Code: Taxonomy and
Techniques
- Title(参考訳): ソースコードのニューラルモデルにおけるトロイの木馬の調査:分類学と技術
- Authors: Aftab Hussain, Md Rafiqul Islam Rabin, Toufique Ahmed, Navid Ayoobi,
Bowen Xu, Prem Devanbu, Mohammad Amin Alipour
- Abstract要約: 我々は、説明可能なAIと安全なAIの文献を研究し、コードの神経モデルの毒性を理解する。
まず、コードのためのトロイの木馬AIの新しい分類法を確立し、コードのニューラルモデルにおけるトリガーの新しいアスペクトベースの分類を示す。
- 参考スコア(独自算出の注目度): 11.35267457536642
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we study literature in Explainable AI and Safe AI to understand
poisoning of neural models of code. In order to do so, we first establish a
novel taxonomy for Trojan AI for code, and present a new aspect-based
classification of triggers in neural models of code. Next, we highlight recent
works that help us deepen our conception of how these models understand
software code. Then we pick some of the recent, state-of-art poisoning
strategies that can be used to manipulate such models. The insights we draw can
potentially help to foster future research in the area of Trojan AI for code.
- Abstract(参考訳): 本研究では,説明可能なaiと安全なaiで文献を研究し,コードのニューラルモデルの毒殺を理解する。
そこで我々はまず,コードに対するトロイの木馬aiの新しい分類法を確立し,ニューラルモデルにおけるトリガーのアスペクトに基づく新しい分類法を提案する。
次に、これらのモデルがどのようにソフトウェアコードを理解するかという概念を深めるのに役立つ最近の作業について強調する。
そして、そのようなモデルを操作するのに使用できる最近の最先端の毒殺戦略をいくつか取り上げる。
私たちが描く洞察は、コードのためのトロイの木馬AI領域における将来の研究を促進するのに役立つでしょう。
関連論文リスト
- AI-Aided Kalman Filters [65.35350122917914]
カルマンフィルタ(KF)とその変種は、信号処理において最も著名なアルゴリズムの一つである。
最近の進歩は、古典的なカルマン型フィルタリングでディープニューラルネットワーク(DNN)を融合させる可能性を示している。
本稿では,KF型アルゴリズムにAIを組み込むための設計アプローチについて,チュートリアル形式で概説する。
論文 参考訳(メタデータ) (2024-10-16T06:47:53Z) - Trojans in Large Language Models of Code: A Critical Review through a Trigger-Based Taxonomy [11.075592348442225]
大きな言語モデル(LLM)は、ソフトウェア開発に多くのエキサイティングな新機能を提供します。
これらのモデルの不透明な性質は、推論や検査を困難にしている。
本研究は,現在最先端のトロイの木馬によるコードの大規模言語モデルに対する攻撃について概説する。
論文 参考訳(メタデータ) (2024-05-05T06:43:52Z) - TrojanedCM: A Repository of Trojaned Large Language Models of Code [4.838807847761728]
TrojanedCMは、ソースコードのクリーンで有毒なモデルの公開リポジトリである。
2つのコード分類タスク(欠陥検出とクローン検出)とコード生成タスクに対して有毒なモデルを提供する。
リポジトリはまた、モデルのアーキテクチャとパラメータへの完全なアクセスを提供し、実践者がさまざまなホワイトボックス分析テクニックを調査できるようにする。
論文 参考訳(メタデータ) (2023-11-24T21:58:06Z) - Attention-Enhancing Backdoor Attacks Against BERT-based Models [54.070555070629105]
バックドア攻撃の戦略を調べることは、モデルの脆弱性を理解するのに役立つだろう。
本稿では,注意パターンを直接操作することでトロイの木馬行動を向上させる新しいトロイの木馬注意損失(TAL)を提案する。
論文 参考訳(メタデータ) (2023-10-23T01:24:56Z) - Neurosymbolic AI and its Taxonomy: a survey [48.7576911714538]
ニューロシンボリックAIは、古典的なAIやニューラルネットワークのようなシンボリック処理を組み合わせたモデルを扱う。
本研究は近年,本分野の研究論文を調査し,提案モデルと応用モデルとの分類と比較を行った。
論文 参考訳(メタデータ) (2023-05-12T19:51:13Z) - Implementing engrams from a machine learning perspective: matching for
prediction [0.0]
ニューラルネットワークを用いてエングラムを実装するコンピュータシステムを設計する方法について提案する。
オートエンコーダをベースとして,情報を圧縮形式で保存・検索するためのインデックスとして潜時ニューラルネットワークを提案する。
我々は、異なるタイプの感覚入力に対応する潜時神経空間における異なる状態が同期活性化によってどのようにリンクされるかを検討する。
論文 参考訳(メタデータ) (2023-03-01T10:05:40Z) - Explainable AI for Pre-Trained Code Models: What Do They Learn? When
They Do Not Work? [4.573310303307945]
下流タスクの一連のソフトウェアエンジニアリング上のコードのための,最近の2つの大規模言語モデル (LLM) について検討する。
CodeBERTとGraphCodeBERTは、これらのタスクで何を学ぶか(ソースコードトークンタイプに関して、最も注意を払っている)を特定します。
モデルが期待通りに機能しない場合の一般的なパターンをいくつか示し、推奨する。
論文 参考訳(メタデータ) (2022-11-23T10:07:20Z) - Neuromorphic Artificial Intelligence Systems [58.1806704582023]
フォン・ノイマンアーキテクチャと古典的ニューラルネットワークに基づく現代のAIシステムは、脳と比較して多くの基本的な制限がある。
この記事では、そのような制限と、それらが緩和される方法について論じる。
これは、これらの制限が克服されている現在利用可能なニューロモーフィックAIプロジェクトの概要を示す。
論文 参考訳(メタデータ) (2022-05-25T20:16:05Z) - Learning to map source code to software vulnerability using
code-as-a-graph [67.62847721118142]
セキュリティの観点からソースコードのニュアンス学習におけるグラフニューラルネットワークの適用性について検討する。
我々は,既存のコード・アズ・フォトや線形シーケンスの符号化手法よりも,脆弱性検出に有効なコード・アズ・グラフの符号化法を示す。
論文 参考訳(メタデータ) (2020-06-15T16:05:27Z) - Scalable Backdoor Detection in Neural Networks [61.39635364047679]
ディープラーニングモデルは、トロイの木馬攻撃に対して脆弱で、攻撃者はトレーニング中にバックドアをインストールして、結果のモデルが小さなトリガーパッチで汚染されたサンプルを誤識別させる。
本稿では,ラベル数と計算複雑性が一致しない新たなトリガリバースエンジニアリング手法を提案する。
実験では,提案手法が純モデルからトロイの木馬モデルを分離する際の完全なスコアを達成できることが観察された。
論文 参考訳(メタデータ) (2020-06-10T04:12:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。