論文の概要: On the Ethics of Using LLMs for Offensive Security
- arxiv url: http://arxiv.org/abs/2506.08693v1
- Date: Tue, 10 Jun 2025 11:11:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:42.362463
- Title: On the Ethics of Using LLMs for Offensive Security
- Title(参考訳): LLMを用いた防犯対策の倫理性について
- Authors: Andreas Happe, Jürgen Cito,
- Abstract要約: 大規模言語モデル(LLM)はここ数年で急速に進化し、現在、攻撃的なサイバーセキュリティの領域内での有効性が評価されている。
本稿では, LLMを攻撃的セキュリティに活用する一連の論文を分析し, 倫理的配慮がいかに表現され, 正当化されるかに着目した。
- 参考スコア(独自算出の注目度): 3.11537581064266
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have rapidly evolved over the past few years and are currently evaluated for their efficacy within the domain of offensive cyber-security. While initial forays showcase the potential of LLMs to enhance security research, they also raise critical ethical concerns regarding the dual-use of offensive security tooling. This paper analyzes a set of papers that leverage LLMs for offensive security, focusing on how ethical considerations are expressed and justified in their work. The goal is to assess the culture of AI in offensive security research regarding ethics communication, highlighting trends, best practices, and gaps in current discourse. We provide insights into how the academic community navigates the fine line between innovation and ethical responsibility. Particularly, our results show that 13 of 15 reviewed prototypes (86.6\%) mentioned ethical considerations and are thus aware of the potential dual-use of their research. Main motivation given for the research was allowing broader access to penetration-testing as well as preparing defenders for AI-guided attackers.
- Abstract(参考訳): 大規模言語モデル(LLM)はここ数年で急速に進化し、現在、攻撃的なサイバーセキュリティの領域内での有効性が評価されている。
最初の動きは、LLMがセキュリティ研究を強化する可能性を示す一方で、攻撃的セキュリティツールの二重使用に関する批判的な倫理的懸念も提起している。
本稿では, LLMを攻撃的セキュリティに活用する一連の論文を分析し, 倫理的配慮がいかに表現され, 正当化されるかに着目した。
目標は、倫理コミュニケーション、トレンドの強調、ベストプラクティス、現在の会話のギャップに関する攻撃的セキュリティ研究において、AIの文化を評価することである。
我々は、学界がイノベーションと倫理的責任の微妙な線をナビゲートする方法についての洞察を提供する。
特に,15種のうち13種 (86.6 %) が倫理的考察に言及しており,研究の二重利用の可能性を認識している。
この研究の主な動機は、侵入テストへの幅広いアクセスを可能にすると同時に、AI誘導攻撃者に対する防御準備を行うことだった。
関連論文リスト
- LLM Can be a Dangerous Persuader: Empirical Study of Persuasion Safety in Large Language Models [47.27098710953806]
パースセーフティ(PersuSafety)は、パースセーフティを評価するための最初の総合的なフレームワークである。
PersuSafetyは6つの異なる非倫理的説得と15の共通の非倫理的戦略をカバーしている。
我々の研究は、説得のような進歩的、目標駆動的な会話における安全性の整合性を改善するために、より注意を払っている。
論文 参考訳(メタデータ) (2025-04-14T17:20:34Z) - The Only Way is Ethics: A Guide to Ethical Research with Large Language Models [53.316174782223115]
LLM倫理白書(LLM Ethics Whitepaper)は、NLP実践者のオープンリソースであり、他人の仕事の倫理的意味を評価することを担当する。
私たちの目標は、倫理文学を明確な第一歩で考えるための具体的な勧告や挑発に翻訳することです。
LLM倫理白書」は、文献の徹底的なレビューを、ドとドナの明確な解釈に駆り立てたもので、本論文にも紹介する。
論文 参考訳(メタデータ) (2024-12-20T16:14:43Z) - Transparency, Security, and Workplace Training & Awareness in the Age of Generative AI [0.0]
AI技術の進歩に伴い、倫理的考慮、透明性、データのプライバシー、そして人間の労働への影響は、イノベーションと効率の推進力と交差する。
我々の研究は、主流の精査から離れて、しばしば周辺で機能する公開アクセス可能な大規模言語モデル(LLM)を探索する。
具体的には、制限のないコミュニケーションとプライバシを中心としたプラットフォームであるGab AIを調べ、検閲なしで自由に対話できるようにします。
論文 参考訳(メタデータ) (2024-12-19T17:40:58Z) - Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - Beyond principlism: Practical strategies for ethical AI use in research practices [0.0]
科学研究における生成的人工知能の急速な採用は、倫理的ガイドラインの開発を上回っている。
既存のアプローチは、科学研究の実践においてAIの倫理的課題に取り組むための実践的なガイダンスをほとんど提供しない。
抽象的な原則と日々の研究実践のギャップを埋めるために,ユーザ中心の現実主義に触発されたアプローチを提案する。
論文 参考訳(メタデータ) (2024-01-27T03:53:25Z) - The Ethics of Interaction: Mitigating Security Threats in LLMs [1.407080246204282]
この論文は、社会や個人のプライバシに対するこのようなセキュリティ上の脅威に対する、倫理的な悪影響について論じている。
われわれは、プロンプト注入、ジェイルブレイク、個人識別情報(PII)露出、性的に明示的なコンテンツ、ヘイトベースのコンテンツという5つの主要な脅威を精査し、彼らの批判的な倫理的結果と、彼らが堅牢な戦略戦略のために作り出した緊急性を評価する。
論文 参考訳(メタデータ) (2024-01-22T17:11:37Z) - Towards more Practical Threat Models in Artificial Intelligence Security [66.67624011455423]
最近の研究で、人工知能のセキュリティの研究と実践のギャップが特定されている。
我々は、AIセキュリティ研究で最も研究されている6つの攻撃の脅威モデルを再検討し、実際にAIの使用と一致させる。
論文 参考訳(メタデータ) (2023-11-16T16:09:44Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。