論文の概要: Safe machine learning model release from Trusted Research Environments:
The AI-SDC package
- arxiv url: http://arxiv.org/abs/2212.01233v2
- Date: Tue, 6 Dec 2022 18:24:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 13:16:50.389144
- Title: Safe machine learning model release from Trusted Research Environments:
The AI-SDC package
- Title(参考訳): Trusted Research Environmentsの安全な機械学習モデルリリース:AI-SDCパッケージ
- Authors: Jim Smith, Richard J. Preen, Andrew McCarthy, Alba Crespi-Boixader,
James Liley and Simon Rogers
- Abstract要約: 我々は、公開リリース前に機密データに基づいてトレーニングされた機械学習(ML)モデルの統計開示制御(SDC)を容易にするために、オープンソースのPythonツールの統合スイートであるAI-SDCを紹介する。
- 参考スコア(独自算出の注目度): 0.2446672595462589
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present AI-SDC, an integrated suite of open source Python tools to
facilitate Statistical Disclosure Control (SDC) of Machine Learning (ML) models
trained on confidential data prior to public release. AI-SDC combines (i) a
SafeModel package that extends commonly used ML models to provide ante-hoc SDC
by assessing the vulnerability of disclosure posed by the training regime; and
(ii) an Attacks package that provides post-hoc SDC by rigorously assessing the
empirical disclosure risk of a model through a variety of simulated attacks
after training. The AI-SDC code and documentation are available under an MIT
license at https://github.com/AI-SDC/AI-SDC.
- Abstract(参考訳): 我々は、公開前に機密データに基づいてトレーニングされた機械学習(ML)モデルの統計開示制御(SDC)を容易にするために、オープンソースのPythonツールの統合スイートであるAI-SDCを紹介する。
AIとSDCの組み合わせ
(i)訓練体制による開示の脆弱性を評価することにより、一般的なMLモデルを拡張してアンテホットなSDCを提供するSafeModelパッケージ。
二 訓練後の様々なシミュレート攻撃を通じて、モデルの経験的開示リスクを厳格に評価することにより、後発sdcを提供する攻撃パッケージ。
AI-SDCのコードとドキュメントはMITライセンスでhttps://github.com/AI-SDC/AI-SDCで入手できる。
関連論文リスト
- AIJack: Security and Privacy Risk Simulator for Machine Learning [0.0]
AIJackは、機械学習モデルのトレーニングとデプロイに関連するセキュリティとプライバシのリスクを評価するために設計された、オープンソースのライブラリである。
統一されたAPIを通じて、様々な攻撃および防御方法のライブラリを提供する。
論文 参考訳(メタデータ) (2023-12-29T16:10:30Z) - A Simple Framework to Enhance the Adversarial Robustness of Deep
Learning-based Intrusion Detection System [5.189166936995511]
敵攻撃に対するIDSの堅牢性を高める新しいIDSアーキテクチャを提案する。
提案したIDSは、DLベースのIDS、対向型サンプル検出器、MLベースのIDSの3つのコンポーネントから構成される。
本実験では,敵攻撃を受けると,IDSの予測性能が大幅に向上することが確認された。
論文 参考訳(メタデータ) (2023-12-06T02:33:12Z) - RCAgent: Cloud Root Cause Analysis by Autonomous Agents with
Tool-Augmented Large Language Models [52.352418867917194]
近年,クラウド根本原因分析(RCA)における言語モデル (LLM) の適用が活発に検討されている。
RCAgentは、実用的でプライバシに配慮した産業RCA利用のためのツール強化LDM自律エージェントフレームワークである。
RCAgentはGPTファミリではなく、内部的にデプロイされたモデル上で動作し、フリーフォームのデータ収集とツールによる包括的な分析を行うことができる。
論文 参考訳(メタデータ) (2023-10-25T03:53:31Z) - PILOT: A Pre-Trained Model-Based Continual Learning Toolbox [71.63186089279218]
本稿では,PILOTとして知られるモデルベース連続学習ツールボックスについて紹介する。
一方、PILOTはL2P、DualPrompt、CODA-Promptといった事前学習モデルに基づいて、最先端のクラスインクリメンタル学習アルゴリズムを実装している。
一方、PILOTは、事前学習されたモデルの文脈に典型的なクラス増分学習アルゴリズムを適合させ、それらの効果を評価する。
論文 参考訳(メタデータ) (2023-09-13T17:55:11Z) - OmniForce: On Human-Centered, Large Model Empowered and Cloud-Edge
Collaborative AutoML System [85.8338446357469]
我々は人間中心のAutoMLシステムであるOmniForceを紹介した。
我々は、OmniForceがAutoMLシステムを実践し、オープン環境シナリオにおける適応型AIを構築する方法について説明する。
論文 参考訳(メタデータ) (2023-03-01T13:35:22Z) - CodeLMSec Benchmark: Systematically Evaluating and Finding Security
Vulnerabilities in Black-Box Code Language Models [58.27254444280376]
自動コード生成のための大規模言語モデル(LLM)は、いくつかのプログラミングタスクにおいてブレークスルーを達成した。
これらのモデルのトレーニングデータは、通常、インターネット(例えばオープンソースのリポジトリから)から収集され、障害やセキュリティ上の脆弱性を含む可能性がある。
この不衛生なトレーニングデータは、言語モデルにこれらの脆弱性を学習させ、コード生成手順中にそれを伝播させる可能性がある。
論文 参考訳(メタデータ) (2023-02-08T11:54:07Z) - DC-Check: A Data-Centric AI checklist to guide the development of
reliable machine learning systems [81.21462458089142]
データ中心のAIは、信頼できるエンドツーエンドパイプラインを可能にする統一パラダイムとして登場しています。
データ中心の考慮事項を抽出する実行可能なチェックリストスタイルのフレームワークであるDC-Checkを提案する。
この開発におけるデータ中心のレンズは、システム開発に先立って思考力と透明性を促進することを目的としている。
論文 参考訳(メタデータ) (2022-11-09T17:32:09Z) - Choose, not Hoard: Information-to-Model Matching for Artificial
Intelligence in O-RAN [8.52291735627073]
Open Radio Access Network (O-RAN) は、ネットワーク基盤要素がオープンで標準化されたインターフェースを介して通信する新興パラダイムである。
重要な要素は、人工知能(AI)ベースのコントローラであるRAN Intelligent Controller(RIC)である。
本稿では、異なるRICにおける複数のAIモデルインスタンスの作成について紹介し、議論し、評価し、トレーニングのためにいくつかの(またはすべての)場所の情報を活用する。
論文 参考訳(メタデータ) (2022-08-01T15:24:27Z) - Enabling Un-/Semi-Supervised Machine Learning for MDSE of the Real-World
CPS/IoT Applications [0.5156484100374059]
我々は、スマートサイバー物理システム(CPS)とIoT(Internet of Things)の現実的なユースケースシナリオに対して、ドメイン固有モデル駆動ソフトウェアエンジニアリング(MDSE)をサポートする新しいアプローチを提案する。
人工知能(AI)の本質において利用可能なデータの大部分はラベルが付けられていないと我々は主張する。したがって、教師なしおよび/または半教師なしのMLアプローチが実践的な選択である。
提案手法は,既存の最先端MDSEツールと完全に実装され,CPS/IoTドメインを提供する。
論文 参考訳(メタデータ) (2021-07-06T15:51:39Z) - CRSLab: An Open-Source Toolkit for Building Conversational Recommender
System [57.208266345350474]
会話推薦システム(CRS)は、研究コミュニティで多くの注目を集めています。
crsに関する既存の研究はシナリオ、目標、技術によって異なり、統一された実装や比較が欠けている。
オープンソースCRSツールキットCRSLabを提案し、CRSを開発するために高度に分離されたモジュールを備えた統合フレームワークを提供する。
論文 参考訳(メタデータ) (2021-01-04T13:10:31Z) - pAElla: Edge-AI based Real-Time Malware Detection in Data Centers [19.967347450443803]
我々は、高解像度電力消費におけるAI駆動エッジコンピューティングを含むDC/SCのセキュリティを高めるための新しいアプローチについて報告する。
pAEllaと呼ばれるこの方法は、リアルタイムマルウェア検出(MD)をターゲットにしており、DC/SC用のアウトオブバンドIoTベースの監視システムで動作し、電力測定のパワースペクトル密度を含む。
F1スコアは1に近づき、False AlarmとMalware Missは0%に近づいた。
論文 参考訳(メタデータ) (2020-04-07T19:48:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。