論文の概要: SoK: Towards Security and Safety of Edge AI
- arxiv url: http://arxiv.org/abs/2410.05349v1
- Date: Mon, 7 Oct 2024 10:52:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-01 19:17:28.523821
- Title: SoK: Towards Security and Safety of Edge AI
- Title(参考訳): SoK: Edge AIのセキュリティと安全性を目指して
- Authors: Tatjana Wingarz, Anne Lauscher, Janick Edinger, Dominik Kaaser, Stefan Schulte, Mathias Fischer,
- Abstract要約: いずれの側面もEdge AIにとって重要であり、さらにその統合も重要だ、と私たちは主張する。
我々は、セキュリティと安全性の脅威を調査し、既存の対策を要約し、この分野のさらなる研究を促すためにオープンな課題を収集する。
- 参考スコア(独自算出の注目度): 13.452624854136031
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Advanced AI applications have become increasingly available to a broad audience, e.g., as centrally managed large language models (LLMs). Such centralization is both a risk and a performance bottleneck - Edge AI promises to be a solution to these problems. However, its decentralized approach raises additional challenges regarding security and safety. In this paper, we argue that both of these aspects are critical for Edge AI, and even more so, their integration. Concretely, we survey security and safety threats, summarize existing countermeasures, and collect open challenges as a call for more research in this area.
- Abstract(参考訳): 集中管理型大規模言語モデル(LLM)として、高度なAIアプリケーションが広く利用できるようになった。
このような中央集権化はリスクとパフォーマンスのボトルネックの両方であり、Edge AIはこれらの問題の解決策になると約束している。
しかし、その分散型アプローチは、セキュリティと安全性に関するさらなる課題を提起する。
本稿では、これら2つの側面がEdge AIにとって重要であり、さらにその統合性についても論じる。
具体的には、セキュリティと安全性の脅威を調査し、既存の対策を要約し、この分野のさらなる研究を促すためにオープンな課題を収集する。
関連論文リスト
- AI Safety for Everyone [3.440579243843689]
AIの安全性に関する最近の議論と研究は、AIの安全性と高度なAIシステムからの現実的リスクとの深いつながりを強調している。
このフレーミングは、AIの安全性にコミットしているが、異なる角度から分野にアプローチする研究者や実践者を排除する可能性がある。
私たちは、現在のAIシステムに対する即時的で実践的な懸念に対処する、数多くの具体的な安全作業を見つけました。
論文 参考訳(メタデータ) (2025-02-13T13:04:59Z) - Open Problems in Machine Unlearning for AI Safety [61.43515658834902]
特定の種類の知識を選択的に忘れたり、抑圧したりするマシンアンラーニングは、プライバシとデータ削除タスクの約束を示している。
本稿では,アンラーニングがAI安全性の包括的ソリューションとして機能することを防止するための重要な制約を特定する。
論文 参考訳(メタデータ) (2025-01-09T03:59:10Z) - Building Trust: Foundations of Security, Safety and Transparency in AI [0.23301643766310373]
我々は、問題の追跡、修復、AIモデルのライフサイクルとオーナシッププロセスの明らかな欠如といった課題を強調しながら、現在のセキュリティと安全性のシナリオをレビューする。
本稿では,AIモデルの開発と運用において,より標準化されたセキュリティ,安全性,透明性を実現するための基礎的要素を提供する。
論文 参考訳(メタデータ) (2024-11-19T06:55:57Z) - Safetywashing: Do AI Safety Benchmarks Actually Measure Safety Progress? [59.96471873997733]
我々は、より有意義な安全指標を開発するための実証的な基盤を提案し、機械学習研究の文脈でAIの安全性を定義する。
我々は、AI安全研究のためのより厳格なフレームワークを提供し、安全性評価の科学を前進させ、測定可能な進歩への道筋を明らかにすることを目指している。
論文 参考訳(メタデータ) (2024-07-31T17:59:24Z) - AI Risk Management Should Incorporate Both Safety and Security [185.68738503122114]
AIリスクマネジメントの利害関係者は、安全とセキュリティの間のニュアンス、シナジー、相互作用を意識すべきである、と私たちは主張する。
我々は、AIの安全性とAIのセキュリティの違いと相互作用を明らかにするために、統一された参照フレームワークを導入する。
論文 参考訳(メタデータ) (2024-05-29T21:00:47Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - Security Risks Concerns of Generative AI in the IoT [9.35121449708677]
モノのインターネット(IoT)が、生成的人工知能(AI)とますます交差する時代において、この記事では、この統合に固有の突発的なセキュリティリスクを精査する。
我々は、生成AIがIoTのイノベーションを促進する方法について検討し、生成AIを使用する際のデータ漏洩の可能性と、生成AI技術のIoTエコシステムにおける誤用を分析します。
論文 参考訳(メタデータ) (2024-03-29T20:28:30Z) - Large language models in 6G security: challenges and opportunities [5.073128025996496]
我々は,潜在的敵の立場から,Large Language Models(LLMs)のセキュリティ面に注目した。
これには包括的脅威分類の開発が含まれ、様々な敵の行動を分類する。
また、我々の研究は、防衛チーム(ブルーチームとしても知られる)によるサイバーセキュリティ活動にLLMがどのように統合されるかに焦点を当てます。
論文 参考訳(メタデータ) (2024-03-18T20:39:34Z) - Towards Safer Generative Language Models: A Survey on Safety Risks,
Evaluations, and Improvements [76.80453043969209]
本調査では,大規模モデルに関する安全研究の枠組みについて述べる。
まず、広範囲にわたる安全問題を導入し、その後、大型モデルの安全性評価手法を掘り下げる。
トレーニングからデプロイメントまで,大規模なモデルの安全性を高めるための戦略について検討する。
論文 参考訳(メタデータ) (2023-02-18T09:32:55Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。