論文の概要: Cyber Security Requirements for Platforms Enhancing AI Reproducibility
- arxiv url: http://arxiv.org/abs/2309.15525v1
- Date: Wed, 27 Sep 2023 09:43:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-28 14:25:02.524868
- Title: Cyber Security Requirements for Platforms Enhancing AI Reproducibility
- Title(参考訳): AIの再現性を高めるプラットフォームのためのサイバーセキュリティ要件
- Authors: Polra Victor Falade
- Abstract要約: 本研究は、人工知能(AI)の分野に焦点を当て、AIプラットフォームを評価するための新しいフレームワークを紹介する。
Floydhub、BEAT、Codalab、Kaggle、OpenMLの5つの人気AIプラットフォームが評価された。
この分析によると、これらのプラットフォームはいずれも、必要なサイバーセキュリティ対策を完全に組み込んでいない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Scientific research is increasingly reliant on computational methods, posing
challenges for ensuring research reproducibility. This study focuses on the
field of artificial intelligence (AI) and introduces a new framework for
evaluating AI platforms for reproducibility from a cyber security standpoint to
address the security challenges associated with AI research. Using this
framework, five popular AI reproducibility platforms; Floydhub, BEAT, Codalab,
Kaggle, and OpenML were assessed. The analysis revealed that none of these
platforms fully incorporates the necessary cyber security measures essential
for robust reproducibility. Kaggle and Codalab, however, performed better in
terms of implementing cyber security measures covering aspects like security,
privacy, usability, and trust. Consequently, the study provides tailored
recommendations for different user scenarios, including individual researchers,
small laboratories, and large corporations. It emphasizes the importance of
integrating specific cyber security features into AI platforms to address the
challenges associated with AI reproducibility, ultimately advancing
reproducibility in this field. Moreover, the proposed framework can be applied
beyond AI platforms, serving as a versatile tool for evaluating a wide range of
systems and applications from a cyber security perspective.
- Abstract(参考訳): 科学研究はますます計算手法に頼り、研究の再現性を確保するための課題を提起している。
本研究は、人工知能(AI)の分野に焦点を当て、サイバーセキュリティの観点から再現性を評価するための新しいフレームワークを導入し、AI研究に関連するセキュリティ課題に対処する。
このフレームワークを使用して、Floydhub、BEAT、Codalab、Kaggle、OpenMLの5つの人気のあるAI再現性プラットフォームが評価された。
この分析によると、これらのプラットフォームには、堅牢な再現性に必要なサイバーセキュリティ対策が完全に組み込まれていない。
しかしkaggleとcodalabは、セキュリティ、プライバシ、ユーザビリティ、信頼といった側面をカバーするサイバーセキュリティ対策の実施に関して、よりよい成果を上げている。
その結果、研究は個々の研究者、小さな研究室、大企業など、さまざまなユーザーシナリオに合わせたレコメンデーションを提供する。
AIの再現性に関わる課題に対処するため、特定のサイバーセキュリティ機能をAIプラットフォームに統合することの重要性を強調し、最終的にこの分野での再現性を促進する。
さらに、提案されたフレームワークはAIプラットフォームを越えて適用することができ、サイバーセキュリティの観点から幅広いシステムやアプリケーションを評価するための汎用的なツールとして機能する。
関連論文リスト
- Safetywashing: Do AI Safety Benchmarks Actually Measure Safety Progress? [59.96471873997733]
我々は、より有意義な安全指標を開発するための実証的な基盤を提案し、機械学習研究の文脈でAIの安全性を定義する。
我々は、AI安全研究のためのより厳格なフレームワークを提供し、安全性評価の科学を前進させ、測定可能な進歩への道筋を明らかにすることを目指している。
論文 参考訳(メタデータ) (2024-07-31T17:59:24Z) - Explainable AI-based Intrusion Detection System for Industry 5.0: An Overview of the Literature, associated Challenges, the existing Solutions, and Potential Research Directions [3.99098935469955]
産業5.0は、製造において様々なタスクを実行するための人間と人工知能(AI)の協力に焦点を当てている。
これらのデバイスと、経済、健康、教育、防衛システムなど、さまざまな重要な分野における相互接続の巨大な関与は、いくつかの潜在的なセキュリティ欠陥を引き起こしている。
XAIは、侵入検知、マルウェア検出、フィッシング検出など、さまざまなサイバーセキュリティ分野において、非常に効果的で強力なツールであることが証明されている。
論文 参考訳(メタデータ) (2024-07-21T09:28:05Z) - Confronting the Reproducibility Crisis: A Case Study of Challenges in Cybersecurity AI [0.0]
AIベースのサイバーセキュリティの重要な領域は、悪意のある摂動からディープニューラルネットワークを守ることに焦点を当てている。
VeriGauge ツールキットを用いて,認証されたロバスト性に関する先行研究の結果の検証を試みる。
私たちの発見は、標準化された方法論、コンテナ化、包括的なドキュメントの緊急性の必要性を浮き彫りにしています。
論文 参考訳(メタデータ) (2024-05-29T04:37:19Z) - Generative AI for Secure and Privacy-Preserving Mobile Crowdsensing [74.58071278710896]
生成AIは、学術分野と産業分野の両方から多くの注目を集めている。
セキュアでプライバシ保護のモバイルクラウドセンシング(SPPMCS)は、データ収集/取得に広く応用されている。
論文 参考訳(メタデータ) (2024-05-17T04:00:58Z) - Artificial Intelligence as the New Hacker: Developing Agents for Offensive Security [0.0]
本稿では,人工知能(AI)の攻撃的サイバーセキュリティへの統合について検討する。
サイバー攻撃をシミュレートし実行するために設計された、自律的なAIエージェントであるReaperAIを開発している。
ReaperAIは、セキュリティ脆弱性を自律的に識別し、悪用し、分析する可能性を実証する。
論文 参考訳(メタデータ) (2024-05-09T18:15:12Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - The Security and Privacy of Mobile Edge Computing: An Artificial Intelligence Perspective [64.36680481458868]
Mobile Edge Computing (MEC)は、クラウドコンピューティングと情報技術(IT)サービスをネットワークのエッジで配信できるようにする新しいコンピューティングパラダイムである。
本稿では,人工知能(AI)の観点からMECのセキュリティとプライバシに関する調査を行う。
新たなセキュリティとプライバシの問題に加えて、AIの観点からの潜在的なソリューションにも重点を置いています。
論文 参考訳(メタデータ) (2024-01-03T07:47:22Z) - Software Repositories and Machine Learning Research in Cyber Security [0.0]
堅牢なサイバーセキュリティ防衛の統合は、ソフトウェア開発のあらゆる段階において不可欠になっている。
ソフトウェア要件プロセスにおけるこれらの初期段階の脆弱性の検出にトピックモデリングと機械学習を活用する試みが実施されている。
論文 参考訳(メタデータ) (2023-11-01T17:46:07Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z) - TanksWorld: A Multi-Agent Environment for AI Safety Research [5.218815947097599]
複雑なタスクを実行できる人工知能を作成する能力は、AI対応システムの安全かつ確実な運用を保証する能力を急速に上回っている。
AIの安全性リスクを示す最近のシミュレーション環境は、特定の問題に比較的単純または狭く焦点を絞っている。
我々は,3つの重要な側面を持つAI安全研究環境として,AI安全タンクワールドを紹介した。
論文 参考訳(メタデータ) (2020-02-25T21:00:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。