論文の概要: Trustworthy AI Inference Systems: An Industry Research View
- arxiv url: http://arxiv.org/abs/2008.04449v1
- Date: Mon, 10 Aug 2020 23:05:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 22:47:10.206230
- Title: Trustworthy AI Inference Systems: An Industry Research View
- Title(参考訳): 信頼できるai推論システム:業界研究の視点
- Authors: Rosario Cammarota, Matthias Schunter, Anand Rajan, Fabian Boemer,
\'Agnes Kiss, Amos Treiber, Christian Weinert, Thomas Schneider, Emmanuel
Stapf, Ahmad-Reza Sadeghi, Daniel Demmler, Huili Chen, Siam Umar Hussain,
Sadegh Riazi, Farinaz Koushanfar, Saransh Gupta, Tajan Simunic Rosing,
Kamalika Chaudhuri, Hamid Nejatollahi, Nikil Dutt, Mohsen Imani, Kim Laine,
Anuj Dubey, Aydin Aysu, Fateme Sadat Hosseini, Chengmo Yang, Eric Wallace,
Pamela Norton
- Abstract要約: 我々は、信頼できるAI推論システムの設計、展開、運用にアプローチするための業界調査ビューを提供する。
信頼された実行環境を用いたAIシステムの機会と課題を強調します。
我々は,産業,アカデミック,政府研究者のグローバルな集団的注意を必要とする,さらなる発展の分野を概説する。
- 参考スコア(独自算出の注目度): 58.000323504158054
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we provide an industry research view for approaching the
design, deployment, and operation of trustworthy Artificial Intelligence (AI)
inference systems. Such systems provide customers with timely, informed, and
customized inferences to aid their decision, while at the same time utilizing
appropriate security protection mechanisms for AI models. Additionally, such
systems should also use Privacy-Enhancing Technologies (PETs) to protect
customers' data at any time.
To approach the subject, we start by introducing trends in AI inference
systems. We continue by elaborating on the relationship between Intellectual
Property (IP) and private data protection in such systems. Regarding the
protection mechanisms, we survey the security and privacy building blocks
instrumental in designing, building, deploying, and operating private AI
inference systems. For example, we highlight opportunities and challenges in AI
systems using trusted execution environments combined with more recent advances
in cryptographic techniques to protect data in use. Finally, we outline areas
of further development that require the global collective attention of
industry, academia, and government researchers to sustain the operation of
trustworthy AI inference systems.
- Abstract(参考訳): 本研究では,信頼できる人工知能(AI)推論システムの設計,展開,運用にアプローチするための産業研究の視点を提供する。
このようなシステムは、aiモデルの適切なセキュリティ保護メカニズムを活用すると同時に、意思決定を支援するために、タイムリーでインフォームドでカスタマイズされた推論を顧客に提供します。
さらに、このようなシステムは、いつでも顧客のデータを保護するために、Privacy-Enhancing Technologies(PET)を使用する必要がある。
この問題にアプローチするために、AI推論システムにトレンドを導入することから始める。
このようなシステムにおける知的財産権(IP)とプライベートデータ保護の関係について検討を続ける。
保護機構に関しては、プライベートAI推論システムの設計、構築、デプロイ、運用に有用なセキュリティとプライバシ構築ブロックを調査します。
例えば、信頼できる実行環境を使用するaiシステムの機会と課題と、使用中のデータを保護する暗号技術のより最近の進歩を強調する。
最後に,信頼に値するai推論システムの運用を維持するために,産業,学界,政府研究者のグローバルな集合的注意を必要とする,さらなる発展の領域について概説する。
関連論文リスト
- Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - Privacy-Enhancing Technologies for Artificial Intelligence-Enabled Systems [0.0]
人工知能(AI)モデルは、システムにプライバシーの脆弱性を導入する。
これらの脆弱性は、モデル開発、デプロイメント、推論フェーズの間に存在する。
我々は、AI対応システムを保護するために、いくつかのプライバシー強化技術(PET)の使用を提案する。
論文 参考訳(メタデータ) (2024-04-04T15:14:40Z) - You Still See Me: How Data Protection Supports the Architecture of AI Surveillance [5.989015605760986]
我々は,AIシステムの開発におけるプライバシ保護技術が,規制の許容度を前提として,監視インフラをいかに支援できるかを示す。
本研究では,プライバシ保護技術を評価するための技術と政策戦略を提案する。
論文 参考訳(メタデータ) (2024-02-09T18:39:29Z) - The Security and Privacy of Mobile Edge Computing: An Artificial Intelligence Perspective [64.36680481458868]
Mobile Edge Computing (MEC)は、クラウドコンピューティングと情報技術(IT)サービスをネットワークのエッジで配信できるようにする新しいコンピューティングパラダイムである。
本稿では,人工知能(AI)の観点からMECのセキュリティとプライバシに関する調査を行う。
新たなセキュリティとプライバシの問題に加えて、AIの観点からの潜在的なソリューションにも重点を置いています。
論文 参考訳(メタデータ) (2024-01-03T07:47:22Z) - Trustworthy AI: From Principles to Practices [44.67324097900778]
多くの現在のAIシステムは、認識不能な攻撃に脆弱で、表現不足なグループに偏り、ユーザのプライバシ保護が欠如していることが判明した。
このレビューでは、信頼できるAIシステムを構築するための包括的なガイドとして、AI実践者に提供したいと思っています。
信頼に値するAIに対する現在の断片化されたアプローチを統合するために、AIシステムのライフサイクル全体を考慮した体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-10-04T03:20:39Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z) - AAAI FSS-19: Human-Centered AI: Trustworthiness of AI Models and Data
Proceedings [8.445274192818825]
予測モデルは不確実性を認識し、信頼できる予測をもたらすことが不可欠である。
このシンポジウムの焦点は、データ品質と技術的堅牢性と安全性を改善するAIシステムであった。
広く定義された領域からの提出はまた、説明可能なモデル、人間の信頼、AIの倫理的側面といった要求に対処するアプローチについても論じた。
論文 参考訳(メタデータ) (2020-01-15T15:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。