論文の概要: AI Code Generators for Security: Friend or Foe?
- arxiv url: http://arxiv.org/abs/2402.01219v1
- Date: Fri, 2 Feb 2024 08:41:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-05 16:29:06.877863
- Title: AI Code Generators for Security: Friend or Foe?
- Title(参考訳): セキュリティのためのaiコードジェネレータ:friendかfoeか?
- Authors: Roberto Natella, Pietro Liguori, Cristina Improta, Bojan Cukic,
Domenico Cotroneo
- Abstract要約: セキュリティのためのAIコードジェネレータのユースケースをレビューし、評価ベンチマークを導入する。
人工知能(AI)コードジェネレータの最近の進歩は、悪意あるアクターによる誤用を含むソフトウェアセキュリティ研究の新たな機会を開きつつある。
- 参考スコア(独自算出の注目度): 10.006772288191875
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent advances of artificial intelligence (AI) code generators are opening
new opportunities in software security research, including misuse by malicious
actors. We review use cases for AI code generators for security and introduce
an evaluation benchmark.
- Abstract(参考訳): 人工知能(AI)コードジェネレータの最近の進歩は、悪意あるアクターによる誤用を含むソフトウェアセキュリティ研究の新たな機会を開きつつある。
セキュリティのためのAIコードジェネレータのユースケースをレビューし、評価ベンチマークを導入する。
関連論文リスト
- Near to Mid-term Risks and Opportunities of Open Source Generative AI [94.06233419171016]
Generative AIの応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の影響の可能性は、潜在的なリスクに関する活発な議論を引き起こし、より厳格な規制を要求した。
この規制は、オープンソースのGenerative AIの誕生する分野を危険にさらしている可能性が高い。
論文 参考訳(メタデータ) (2024-04-25T21:14:24Z) - DeVAIC: A Tool for Security Assessment of AI-generated Code [5.383910843560784]
DeVAIC (Detection of Vulnerabilities in AI Generated Code)は、AI生成のPythonコードのセキュリティを評価するツールである。
論文 参考訳(メタデータ) (2024-04-11T08:27:23Z) - Exploring Safety Generalization Challenges of Large Language Models via Code [126.80573601180411]
本稿では,自然言語入力をコード入力に変換するフレームワークであるCodeAttackを紹介する。
我々の研究は、コード入力に対するこれらのモデルの共通の安全性の脆弱性を明らかにした。
CodeAttackと自然言語の分布ギャップが大きくなると、安全性の一般化が弱くなる。
論文 参考訳(メタデータ) (2024-03-12T17:55:38Z) - Poisoning Programs by Un-Repairing Code: Security Concerns of
AI-generated Code [0.9790236766474201]
脆弱性コードの生成につながる新たなデータ中毒攻撃を特定します。
次に、これらの攻撃がコード生成の最先端モデルにどのように影響するかを広範囲に評価する。
論文 参考訳(メタデータ) (2024-03-11T12:47:04Z) - Detectors for Safe and Reliable LLMs: Implementations, Uses, and
Limitations [75.62309487375126]
大規模言語モデル(LLM)は、不誠実なアウトプットからバイアスや有害な世代に至るまで、さまざまなリスクを受けやすい。
我々は,様々な害のラベルを提供するコンパクトで容易に構築できる分類モデルである,検出器のライブラリを作成し,展開する取り組みについて述べる。
論文 参考訳(メタデータ) (2024-03-09T21:07:16Z) - Farsight: Fostering Responsible AI Awareness During AI Application
Prototyping [34.58361709877044]
私たちはFarsightという、プロトタイピング中のAIアプリケーションから潜在的な害を識別する新しい対話型ツールを紹介します。
ユーザのプロンプトに基づいて、Farsightは関連するAIインシデントに関するニュース記事を強調し、LLM生成したユースケースやステークホルダ、障害を調査、編集することを可能にする。
10人のAIプロトタイプを用いた共同設計研究と42人のAIプロトタイプを用いたユーザスタディから得られた知見を報告する。
論文 参考訳(メタデータ) (2024-02-23T14:38:05Z) - Control Risk for Potential Misuse of Artificial Intelligence in Science [85.91232985405554]
我々は、科学におけるAI誤用の危険性の認識を高めることを目的としている。
化学科学における誤用の実例を取り上げる。
我々は、科学におけるAIモデルの誤用リスクを制御するSciGuardというシステムを提案する。
論文 参考訳(メタデータ) (2023-12-11T18:50:57Z) - AI Product Security: A Primer for Developers [0.685316573653194]
機械学習製品に対する脅威を理解し、AI製品開発における共通の落とし穴を避けることが不可欠である。
この記事は、AIソフトウェア製品の開発者、デザイナー、マネージャ、研究者に宛てられている。
論文 参考訳(メタデータ) (2023-04-18T05:22:34Z) - CodeLMSec Benchmark: Systematically Evaluating and Finding Security
Vulnerabilities in Black-Box Code Language Models [58.27254444280376]
自動コード生成のための大規模言語モデル(LLM)は、いくつかのプログラミングタスクにおいてブレークスルーを達成した。
これらのモデルのトレーニングデータは、通常、インターネット(例えばオープンソースのリポジトリから)から収集され、障害やセキュリティ上の脆弱性を含む可能性がある。
この不衛生なトレーニングデータは、言語モデルにこれらの脆弱性を学習させ、コード生成手順中にそれを伝播させる可能性がある。
論文 参考訳(メタデータ) (2023-02-08T11:54:07Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z) - On Safety Assessment of Artificial Intelligence [0.0]
人工知能の多くのモデル、特に機械学習は統計モデルであることを示す。
危険なランダム障害の予算の一部は、AIシステムの確率論的欠陥行動に使用される必要がある。
我々は、安全関連システムにおけるAIの利用に決定的な研究課題を提案する。
論文 参考訳(メタデータ) (2020-02-29T14:05:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。