論文の概要: Security and Privacy Considerations for Machine Learning Models Deployed
in the Government and Public Sector (white paper)
- arxiv url: http://arxiv.org/abs/2010.05809v1
- Date: Mon, 12 Oct 2020 16:05:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-29 07:07:36.852403
- Title: Security and Privacy Considerations for Machine Learning Models Deployed
in the Government and Public Sector (white paper)
- Title(参考訳): 政府・公共部門における機械学習モデルのセキュリティとプライバシに関する考察(白書)
- Authors: Nader Sehatbakhsh, Ellie Daw, Onur Savas, Amin Hassanzadeh, Ian
McCulloh
- Abstract要約: 未知の信頼性を持つユーザと、政府や公共セクターに展開されている機械学習モデルとの間の避けられない相互作用が、システムを危険にさらすことができるかを説明する。
提供されたサービスのセキュリティとプライバシを強化するためのレコメンデーションとガイドラインを提案する。
- 参考スコア(独自算出の注目度): 1.438446731705183
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As machine learning becomes a more mainstream technology, the objective for
governments and public sectors is to harness the power of machine learning to
advance their mission by revolutionizing public services. Motivational
government use cases require special considerations for implementation given
the significance of the services they provide. Not only will these applications
be deployed in a potentially hostile environment that necessitates protective
mechanisms, but they are also subject to government transparency and
accountability initiatives which further complicates such protections.
In this paper, we describe how the inevitable interactions between a user of
unknown trustworthiness and the machine learning models, deployed in
governments and public sectors, can jeopardize the system in two major ways: by
compromising the integrity or by violating the privacy. We then briefly
overview the possible attacks and defense scenarios, and finally, propose
recommendations and guidelines that once considered can enhance the security
and privacy of the provided services.
- Abstract(参考訳): 機械学習が主流となるにつれて、政府や公共セクターの目標は、機械学習の力を利用して、公共サービスに革命をもたらすことによって彼らのミッションを前進させることだ。
政府のモチベーションのユースケースは、それらが提供するサービスの重要性を考えると、実装に特別な配慮を必要とする。
これらのアプリケーションは、保護機構を必要とする潜在的に敵対的な環境にデプロイされるだけでなく、これらの保護をさらに複雑にする政府の透明性と説明責任イニシアティブの対象となる。
本稿では,信頼度が不明なユーザと,政府や公共部門に展開されるマシンラーニングモデルとの不可避なインタラクションが,システムの整合性を損なうか,プライバシを侵害するかという,2つの主要な方法でシステムを脅かすかを述べる。
次に、攻撃と防御のシナリオを簡単に概説し、最後に、提供されたサービスのセキュリティとプライバシを強化するための推奨とガイドラインを提案します。
関連論文リスト
- Coordinated Disclosure of Dual-Use Capabilities: An Early Warning System for Advanced AI [0.0]
本稿では,先進的なAI開発者や米国政府機関,その他の民間企業との早期情報共有を支援するプロセスとして,CDDC(Coordinated Disclosure of Dual-Use Capabilities)を提案する。
これは、米国政府、デュアルユースファンデーションモデル開発者、その他のアクターに、公衆の安全とセキュリティに大きな影響を与える可能性のあるAI機能の概要と、対応の最大時間を提供することを目的としている。
論文 参考訳(メタデータ) (2024-07-01T16:09:54Z) - A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - ExTRUST: Reducing Exploit Stockpiles with a Privacy-Preserving Depletion
System for Inter-State Relationships [4.349142920611964]
本稿では、複数の州で脆弱性とエクスプロイトのストックをプライベートに比較できるプライバシー保護手法を提案する。
システムをExtrustと呼び、拡張性があり、いくつかの攻撃シナリオに耐えられることを示す。
論文 参考訳(メタデータ) (2023-06-01T12:02:17Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - A Trust Framework for Government Use of Artificial Intelligence and
Automated Decision Making [0.1527458325979785]
本稿では,公共セクターシステムとプロセスの機械化,デジタル化,自動化の課題を明らかにする。
公立機関において、倫理的かつ高い精度の人工知能(AI)や自動意思決定(ADM)システムを保証するための近代的で実践的な枠組みを提案する。
論文 参考訳(メタデータ) (2022-08-22T06:51:15Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z) - Trustworthy AI Inference Systems: An Industry Research View [58.000323504158054]
我々は、信頼できるAI推論システムの設計、展開、運用にアプローチするための業界調査ビューを提供する。
信頼された実行環境を用いたAIシステムの機会と課題を強調します。
我々は,産業,アカデミック,政府研究者のグローバルな集団的注意を必要とする,さらなる発展の分野を概説する。
論文 参考訳(メタデータ) (2020-08-10T23:05:55Z) - An operational architecture for privacy-by-design in public service
applications [0.26249027950824505]
独立規制監視に基づくプライバシ・バイ・デザインのための運用アーキテクチャを提案する。
既存の技術に基づくアーキテクチャの実装の可能性について、簡単に論じる。
論文 参考訳(メタデータ) (2020-06-08T14:57:29Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。