論文の概要: Application of Data Encryption in Chinese Named Entity Recognition
- arxiv url: http://arxiv.org/abs/2208.14627v1
- Date: Wed, 31 Aug 2022 04:20:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-01 13:40:07.312331
- Title: Application of Data Encryption in Chinese Named Entity Recognition
- Title(参考訳): 中国語名前付きエンティティ認識におけるデータ暗号化の適用
- Authors: Kaifang Long, Jikun Dong, Shengyu Fan, Yanfang Geng, Yang Cao, Han
Zhao, Hui Yu, Weizhi Xu
- Abstract要約: 本稿では,機密データの漏洩や不便な開示といった問題に対処する暗号学習フレームワークを提案する。
名前付きエンティティ認識タスクにおいて、トレーニングデータを初めて暗号化するために、複数の暗号化アルゴリズムを導入する。
実験結果から, 暗号化手法は良好な結果が得られることがわかった。
- 参考スコア(独自算出の注目度): 11.084360853065736
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, with the continuous development of deep learning, the performance
of named entity recognition tasks has been dramatically improved. However, the
privacy and the confidentiality of data in some specific fields, such as
biomedical and military, cause insufficient data to support the training of
deep neural networks. In this paper, we propose an encryption learning
framework to address the problems of data leakage and inconvenient disclosure
of sensitive data in certain domains. We introduce multiple encryption
algorithms to encrypt training data in the named entity recognition task for
the first time. In other words, we train the deep neural network using the
encrypted data. We conduct experiments on six Chinese datasets, three of which
are constructed by ourselves. The experimental results show that the encryption
method achieves satisfactory results. The performance of some models trained
with encrypted data even exceeds the performance of the unencrypted method,
which verifies the effectiveness of the introduced encryption method and solves
the problem of data leakage to a certain extent.
- Abstract(参考訳): 近年,ディープラーニングの継続的な開発により,名前付きエンティティ認識タスクの性能が劇的に向上している。
しかし、バイオメディカルや軍事などの特定の分野におけるデータのプライバシーと機密性は、ディープニューラルネットワークのトレーニングを支援するために不十分なデータを引き起こす。
本稿では,特定の領域における機密データの漏洩と不都合な開示の問題に対処するための暗号学習フレームワークを提案する。
名前付きエンティティ認識タスクでトレーニングデータを暗号化するために,複数の暗号化アルゴリズムを導入する。
言い換えれば、暗号化されたデータを使ってディープニューラルネットワークを訓練する。
6つの中国データセットについて実験を行い,そのうち3つを自身で構築した。
実験結果から, 暗号化手法は良好な結果が得られることがわかった。
暗号化されたデータでトレーニングされた一部のモデルの性能は、暗号化されていない方法のパフォーマンスを超え、導入した暗号化手法の有効性を検証し、データ漏洩の問題をある程度解決する。
関連論文リスト
- HETAL: Efficient Privacy-preserving Transfer Learning with Homomorphic Encryption [4.164336621664897]
HETALは、効率的な同型暗号化に基づく転送学習アルゴリズムである。
本稿では,従来の手法よりも1.8~323倍高速な暗号化行列乗算アルゴリズムを提案する。
実験では、合計訓練時間は567-3442秒であり、1時間未満である。
論文 参考訳(メタデータ) (2024-03-21T03:47:26Z) - Cryptanalysis and improvement of multimodal data encryption by
machine-learning-based system [0.0]
このフィールドの様々な要求を満たす暗号化アルゴリズム。
暗号化アルゴリズムを分析するための最良のアプローチは、それを壊すための実用的で効率的なテクニックを特定することである。
論文 参考訳(メタデータ) (2024-02-24T10:02:21Z) - Bi-CryptoNets: Leveraging Different-Level Privacy for Encrypted
Inference [4.754973569457509]
入力データを重要度とプライバシーに応じてセンシティブで非センシティブなセグメントに分解する。
センシティブなセグメントは、人間の顔のような重要でプライベートな情報を含んでいる。
セキュリティを維持するために、強い同型暗号化を採用していますが、不感な暗号化には背景がいくつか含まれており、摂動が追加されています。
論文 参考訳(メタデータ) (2024-02-02T10:35:05Z) - Deep Internal Learning: Deep Learning from a Single Input [88.59966585422914]
多くの場合、手元にある入力からネットワークをトレーニングする価値がある。
これは、トレーニングデータが少なく、多様性が大きい多くの信号および画像処理問題に特に関係している。
本研究の目的は,この2つの重要な方向に向けて,過去数年間に提案されてきた深層学習技術について報告することである。
論文 参考訳(メタデータ) (2023-12-12T16:48:53Z) - Feature Mining for Encrypted Malicious Traffic Detection with Deep
Learning and Other Machine Learning Algorithms [7.404682407709988]
暗号化メカニズムの人気は、悪意のあるトラフィック検出に大きな課題をもたらします。
従来の検出技術は、暗号化されたトラフィックの復号化なしには機能しない。
本稿では,交通特徴の詳細な分析を行い,現状の交通特徴生成手法の比較を行う。
本稿では,暗号化された不正なトラフィック分析に特化して設計された,暗号化されたトラフィック機能に関する新しい概念を提案する。
論文 参考訳(メタデータ) (2023-04-07T15:25:36Z) - PEOPL: Characterizing Privately Encoded Open Datasets with Public Labels [59.66777287810985]
プライバシとユーティリティのための情報理論スコアを導入し、不誠実なユーザの平均パフォーマンスを定量化する。
次に、ランダムなディープニューラルネットワークの使用を動機付ける符号化スキームのファミリーを構築する際のプリミティブを理論的に特徴づける。
論文 参考訳(メタデータ) (2023-03-31T18:03:53Z) - Machine Learning for Encrypted Malicious Traffic Detection: Approaches,
Datasets and Comparative Study [6.267890584151111]
新型コロナウイルス(COVID-19)後の環境では、悪意のあるトラフィック暗号化が急速に増加している。
我々は、機械学習に基づく暗号化された悪意のあるトラフィック検出手法の普遍的な枠組みを定式化する。
暗号化された悪意のあるトラフィック検出アルゴリズムを10個実装し比較する。
論文 参考訳(メタデータ) (2022-03-17T14:00:55Z) - Reinforcement Learning on Encrypted Data [58.39270571778521]
本稿では,DQNエージェントが,離散的かつ連続的な状態空間を持つ環境でどのように動作するかを予備的,実験的に検討する。
その結果,非決定論的暗号が存在する場合でも,エージェントは依然として小さな状態空間で学習することができるが,より複雑な環境では性能が低下することがわかった。
論文 参考訳(メタデータ) (2021-09-16T21:59:37Z) - NeuraCrypt: Hiding Private Health Data via Random Neural Networks for
Public Training [64.54200987493573]
我々は,ランダムな深層ニューラルネットワークに基づくプライベート符号化方式であるNeuraCryptを提案する。
NeuraCryptは、データ所有者のみが知っているランダムに構築されたニューラルネットワークを使用して、生の患者データをエンコードする。
我々は,NeuraCryptが,様々なX線タスクの非プライベートベースラインに対して,競合精度を達成することを示す。
論文 参考訳(メタデータ) (2021-06-04T13:42:21Z) - On Deep Learning with Label Differential Privacy [54.45348348861426]
ラベルは機密性があり、保護されるべきであるとするマルチクラス分類について検討する。
本稿では,ラベル差分プライバシを用いたディープニューラルネットワークのトレーニングアルゴリズムを提案し,いくつかのデータセットで評価を行う。
論文 参考訳(メタデータ) (2021-02-11T15:09:06Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。