論文の概要: Command Line Interface Risk Modeling
- arxiv url: http://arxiv.org/abs/2302.01749v1
- Date: Tue, 17 Jan 2023 17:10:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-12 13:12:43.868989
- Title: Command Line Interface Risk Modeling
- Title(参考訳): コマンドラインインタフェースのリスクモデリング
- Authors: Dr Anthony L. Faulds
- Abstract要約: この作業はAzureに集中し、他のコマンドラインインターフェースやAPIにどのように適用されるかを示している。
重み付き計量としてF5スコアを用いて、未知の分野からよく研究されている自然言語処理領域にこの問題をマッピングするための異なる変換手法を実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Protecting sensitive data is an essential part of security in cloud
computing. However, only specific privileged individuals have access to view or
interact with this data; therefore, it is unscalable to depend on these
individuals also to maintain the software. A solution to this is to allow
non-privileged individuals access to maintain these systems but mask sensitive
information from egressing. To this end, we have created a machine-learning
model to predict and redact fields with sensitive data. This work concentrates
on Azure PowerShell, showing how it applies to other command-line interfaces
and APIs. Using the F5-score as a weighted metric, we demonstrate different
transformation techniques to map this problem from an unknown field to the
well-researched area of natural language processing.
- Abstract(参考訳): 機密データを保護することは、クラウドコンピューティングにおけるセキュリティの重要な部分である。
しかし、特定の特権を持つ個人だけがこのデータを見たり操作したりできるため、これらの個人にも依存してソフトウェアをメンテナンスすることは不可能である。
これに対する解決策は、非私有の個人がこれらのシステムにアクセスできるようにすることである。
この目的のために,センシティブなデータでフィールドを予測・再現する機械学習モデルを構築した。
この作業はazure powershellに集中し、他のコマンドラインインターフェースやapiへの適用方法を示している。
重み付きメトリクスとしてf5-scoreを使用して、未知のフィールドから自然言語処理のよく研究された領域へこの問題をマッピングする様々な変換技術を示す。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Privacy Side Channels in Machine Learning Systems [87.53240071195168]
プライバシサイドチャネルは、システムレベルのコンポーネントを利用してプライベート情報を抽出する攻撃である。
例えば、差分プライベートなトレーニングを適用する前にトレーニングデータを重複させることで、保証可能なプライバシ保証を完全に無効にするサイドチャネルが生成されることを示す。
さらに,学習データセットに含まれる秘密鍵を抽出するために,言語モデルを学習データ再生からブロックするシステムを利用することを示す。
論文 参考訳(メタデータ) (2023-09-11T16:49:05Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Efficient and Privacy Preserving Group Signature for Federated Learning [2.121963121603413]
Federated Learning(FL)は、ユーザデータのプライバシに対する脅威を軽減することを目的とした機械学習(ML)テクニックである。
本稿では,グループ署名に基づくFLの効率的かつプライバシ保護プロトコルを提案する。
論文 参考訳(メタデータ) (2022-07-12T04:12:10Z) - THE-X: Privacy-Preserving Transformer Inference with Homomorphic
Encryption [112.02441503951297]
トランスフォーマーモデルのプライバシ保護推論は、クラウドサービスユーザの要求に基づいています。
我々は、事前訓練されたモデルのプライバシ保存推論を可能にするトランスフォーマーの近似アプローチである$textitTHE-X$を紹介した。
論文 参考訳(メタデータ) (2022-06-01T03:49:18Z) - Homomorphic Encryption and Federated Learning based Privacy-Preserving
CNN Training: COVID-19 Detection Use-Case [0.41998444721319217]
本稿では、同相暗号を用いた医療データのためのプライバシー保護フェデレーション学習アルゴリズムを提案する。
提案アルゴリズムはセキュアなマルチパーティ計算プロトコルを用いて,ディープラーニングモデルを敵から保護する。
論文 参考訳(メタデータ) (2022-04-16T08:38:35Z) - Attribute Inference Attack of Speech Emotion Recognition in Federated
Learning Settings [56.93025161787725]
Federated Learning(FL)は、クライアントをコーディネートして、ローカルデータを共有せずにモデルを協調的にトレーニングする分散機械学習パラダイムである。
本稿では,共有勾配やモデルパラメータからクライアントの機密属性情報を推測する属性推論攻撃フレームワークを提案する。
FLを用いて学習したSERシステムに対して,属性推論攻撃が達成可能であることを示す。
論文 参考訳(メタデータ) (2021-12-26T16:50:42Z) - Adversarial representation learning for private speech generation [0.5924780594614675]
本稿では、音声データ中の特定の感度属性を難読化することを学ぶGAN(Generative Adversarial Network)に基づくモデルを提案する。
我々は、発話の意味を保ちながら、データに機密情報を隠蔽することを学ぶモデルを訓練する。
実用性やリアリズムを維持するために,新たなデータを生成することによって,性別などのセンシティブな情報を隠蔽することができることを示す。
論文 参考訳(メタデータ) (2020-06-16T12:44:35Z) - Privacy Adversarial Network: Representation Learning for Mobile Data
Privacy [33.75500773909694]
モバイルユーザのためのクラウドベースのインテリジェントサービスの増加は、プロバイダに送信するユーザデータを要求している。
以前の作業では、例えばノイズを追加して識別情報を削除したり、匿名化された特徴などのデータから抽出された表現を送信したりするといった、データの難読化が行われていた。
私たちは、敵対的な学習を活用して、プライバシとユーティリティのバランスを改善する。
論文 参考訳(メタデータ) (2020-06-08T09:42:04Z) - TIPRDC: Task-Independent Privacy-Respecting Data Crowdsourcing Framework
for Deep Learning with Anonymized Intermediate Representations [49.20701800683092]
本稿では,匿名化中間表現を用いたタスク非依存型プライバシ参照データクラウドソーシングフレームワークTIPRDCを提案する。
このフレームワークの目的は、中間表現からプライバシー情報を隠蔽できる機能抽出器を学習することであり、データコレクターの生データに埋め込まれた元の情報を最大限に保持し、未知の学習タスクを達成することである。
論文 参考訳(メタデータ) (2020-05-23T06:21:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。