論文の概要: Artificial Intelligence Ethics Education in Cybersecurity: Challenges
and Opportunities: a focus group report
- arxiv url: http://arxiv.org/abs/2311.00903v1
- Date: Thu, 2 Nov 2023 00:08:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-03 15:14:25.688063
- Title: Artificial Intelligence Ethics Education in Cybersecurity: Challenges
and Opportunities: a focus group report
- Title(参考訳): サイバーセキュリティにおける人工知能倫理教育の課題と機会:フォーカスグループレポート
- Authors: Diane Jackson, Sorin Adam Matei, and Elisa Bertino
- Abstract要約: サイバーセキュリティにおけるAIツールの出現は多くの機会と不確実性を生み出している。
AIサイバーセキュリティ作業における“ブラックボックス”の精神の理解も、最も重要である。
将来のAI教育者や実践者は、厳格な技術トレーニングカリキュラムを実装することで、これらの問題に対処する必要がある。
- 参考スコア(独自算出の注目度): 10.547686057159309
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The emergence of AI tools in cybersecurity creates many opportunities and
uncertainties. A focus group with advanced graduate students in cybersecurity
revealed the potential depth and breadth of the challenges and opportunities.
The salient issues are access to open source or free tools, documentation,
curricular diversity, and clear articulation of ethical principles for AI
cybersecurity education. Confronting the "black box" mentality in AI
cybersecurity work is also of the greatest importance, doubled by deeper and
prior education in foundational AI work. Systems thinking and effective
communication were considered relevant areas of educational improvement. Future
AI educators and practitioners need to address these issues by implementing
rigorous technical training curricula, clear documentation, and frameworks for
ethically monitoring AI combined with critical and system's thinking and
communication skills.
- Abstract(参考訳): サイバーセキュリティにおけるAIツールの出現は多くの機会と不確実性を生み出している。
サイバーセキュリティの上級大学院生によるフォーカスグループは、挑戦と機会の潜在的な深さと広さを明らかにした。
健全な問題は、オープンソースまたはフリーツールへのアクセス、ドキュメント、カリキュラムの多様性、AIサイバーセキュリティ教育のための倫理的原則の明確化である。
AIサイバーセキュリティ作業における“ブラックボックス”精神の理解は、基礎的AI作業におけるより深い事前教育によって、最も重要なものでもある。
システム思考と効果的なコミュニケーションは教育改善の関連分野と見なされた。
将来のAI教育者や実践者は、厳格な技術トレーニングカリキュラム、明確なドキュメント、倫理的に監視するAIと批判的およびシステムの思考とコミュニケーションスキルを組み合わせたフレームワークを実装することで、これらの問題に対処する必要がある。
関連論文リスト
- Artificial Intelligence in Cybersecurity: Building Resilient Cyber Diplomacy Frameworks [0.0]
本稿では、自動化と人工知能(AI)が米国のサイバー外交をいかに変えつつあるかを考察する。
これらの技術を活用することで、米国はサイバー外交の複雑さと緊急性を管理することができる。
論文 参考訳(メタデータ) (2024-11-17T17:57:17Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Artificial Intelligence as the New Hacker: Developing Agents for Offensive Security [0.0]
本稿では,人工知能(AI)の攻撃的サイバーセキュリティへの統合について検討する。
サイバー攻撃をシミュレートし実行するために設計された、自律的なAIエージェントであるReaperAIを開発している。
ReaperAIは、セキュリティ脆弱性を自律的に識別し、悪用し、分析する可能性を実証する。
論文 参考訳(メタデータ) (2024-05-09T18:15:12Z) - Socialized Learning: A Survey of the Paradigm Shift for Edge Intelligence in Networked Systems [62.252355444948904]
本稿では,エッジインテリジェンス(EI)と社会学習(SL)の統合に関する文献レビューの結果について述べる。
SLは、エージェントの協調能力と集団知性を増幅することを目的とした、社会的原則と行動に基づく学習パラダイムである。
ソーシャル化アーキテクチャ、ソーシャル化トレーニング、ソーシャル化推論の3つの統合コンポーネントについて詳しく検討し、その強みと弱点を分析した。
論文 参考訳(メタデータ) (2024-04-20T11:07:29Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - Educating for AI Cybersecurity Work and Research: Ethics, Systems
Thinking, and Communication Requirements [14.004571093079623]
マネージャと教授は、サイバーセキュリティにAIツールを使用することは、技術以外の3つのスキルセットと大きく関連していると認識している。
予想とは対照的に、倫理的な懸念は、セキュリティに最も高度なAIツールを採用するために急いで残されている。
教師は、倫理的、システム思考、コミュニケーション能力に対する生徒の準備を過度に評価する。
論文 参考訳(メタデータ) (2023-11-07T20:06:38Z) - AI Potentiality and Awareness: A Position Paper from the Perspective of
Human-AI Teaming in Cybersecurity [18.324118502535775]
我々は、人間とAIのコラボレーションはサイバーセキュリティに価値があると論じている。
私たちは、AIの計算能力と人間の専門知識を取り入れたバランスのとれたアプローチの重要性を強調します。
論文 参考訳(メタデータ) (2023-09-28T01:20:44Z) - Adversarial Machine Learning and Cybersecurity: Risks, Challenges, and
Legal Implications [0.4665186371356556]
2022年7月、ジョージタウン大学のCenter for Security and Emerging TechnologyとStanford Cyber Policy CenterのGeopolitics, Technology, and Governanceプログラムが、人工知能システムの脆弱性と従来型のソフトウェア脆弱性との関係を調べる専門家のワークショップを開催した。
議論されたトピックは、AI脆弱性が標準的なサイバーセキュリティプロセスの下でどのように扱われるか、現在の障壁がAI脆弱性に関する情報の正確な共有を妨げていること、AIシステムに対する敵対的攻撃に関連する法的問題、政府支援がAI脆弱性の管理と緩和を改善する可能性のある潜在的な領域である。
論文 参考訳(メタデータ) (2023-05-23T22:27:53Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。