論文の概要: Detecting Privacy Requirements from User Stories with NLP Transfer
Learning Models
- arxiv url: http://arxiv.org/abs/2202.01035v1
- Date: Wed, 2 Feb 2022 14:02:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-03 15:17:19.401529
- Title: Detecting Privacy Requirements from User Stories with NLP Transfer
Learning Models
- Title(参考訳): nlp転送学習モデルによるユーザストーリからのプライバシ要件の検出
- Authors: Francesco Casillo, Vincenzo Deufemia and Carmine Gravino
- Abstract要約: 本稿では,プライバシ関連情報を自動検出することで,アジャイルソフトウェア開発におけるプライバシリスクを低減するアプローチを提案する。
提案手法は自然言語処理(NLP)と言語資源とディープラーニングアルゴリズムを組み合わせて,プライバシの側面をユーザストーリに識別する。
- 参考スコア(独自算出の注目度): 1.6951941479979717
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: To provide privacy-aware software systems, it is crucial to consider privacy
from the very beginning of the development. However, developers do not have the
expertise and the knowledge required to embed the legal and social requirements
for data protection into software systems. Objective: We present an approach to
decrease privacy risks during agile software development by automatically
detecting privacy-related information in the context of user story
requirements, a prominent notation in agile Requirement Engineering (RE).
Methods: The proposed approach combines Natural Language Processing (NLP) and
linguistic resources with deep learning algorithms to identify privacy aspects
into User Stories. NLP technologies are used to extract information regarding
the semantic and syntactic structure of the text. This information is then
processed by a pre-trained convolutional neural network, which paved the way
for the implementation of a Transfer Learning technique. We evaluate the
proposed approach by performing an empirical study with a dataset of 1680 user
stories. Results: The experimental results show that deep learning algorithms
allow to obtain better predictions than those achieved with conventional
(shallow) machine learning methods. Moreover, the application of Transfer
Learning allows to considerably improve the accuracy of the predictions, ca.
10%. Conclusions: Our study contributes to encourage software engineering
researchers in considering the opportunities to automate privacy detection in
the early phase of design, by also exploiting transfer learning models.
- Abstract(参考訳): プライバシを意識したソフトウェアシステムを提供するには,開発の初期段階からプライバシを検討することが不可欠である。
しかし、開発者は、データ保護の法的および社会的要件をソフトウェアシステムに組み込むために必要な専門知識や知識を持っていない。
目的:我々は,ユーザストーリ要件のコンテキストにおいて,プライバシ関連の情報を自動検出することによって,アジャイルソフトウェア開発中のプライバシリスクを低減する手法を提案する。
方法:提案手法は自然言語処理(NLP)と言語資源とディープラーニングアルゴリズムを組み合わせて,プライバシの側面をユーザストーリに識別する。
NLP技術は、テキストの意味と構文構造に関する情報を抽出するために用いられる。
この情報は、事前学習された畳み込みニューラルネットワークによって処理され、転送学習技術の実装への道を開く。
提案手法を1680個のユーザストーリーのデータセットを用いて実証的研究により評価する。
結果: 実験結果から, 深層学習アルゴリズムは, 従来の(浅層)機械学習手法よりも優れた予測が得られることが示された。
さらに, 転校学習の適用により, 予測精度が大幅に向上する。
10%.
結論:本研究は,ソフトウェア工学研究者に,トランスファー学習モデルを活用することにより,設計の初期段階におけるプライバシー検出を自動化する機会を検討する上で,貢献する。
関連論文リスト
- Using Machine Learning To Identify Software Weaknesses From Software
Requirement Specifications [49.1574468325115]
本研究は、要求仕様からソフトウェア弱点を特定するための効率的な機械学習アルゴリズムを見つけることに焦点を当てる。
ProMISE_exp. Naive Bayes、サポートベクターマシン(SVM)、決定木、ニューラルネットワーク、畳み込みニューラルネットワーク(CNN)アルゴリズムをテストした。
論文 参考訳(メタデータ) (2023-08-10T13:19:10Z) - Privacy-Preserving Graph Machine Learning from Data to Computation: A
Survey [67.7834898542701]
我々は,グラフ機械学習のプライバシ保護手法の見直しに重点を置いている。
まずプライバシ保護グラフデータを生成する方法を検討する。
次に,プライバシ保護情報を送信する方法について述べる。
論文 参考訳(メタデータ) (2023-07-10T04:30:23Z) - Generative User-Experience Research for Developing Domain-specific
Natural Language Processing Applications [4.5224851085910585]
本稿では、生成UX研究をドメインNLPアプリケーションに組み込むための新しい手法を提案する。
生成UX研究は、プロトタイプ開発の初期段階、すなわちアイデアと概念評価、およびシステムの有用性とユーザ有用性を評価するための最終段階において、ドメインユーザーを採用する。
論文 参考訳(メタデータ) (2023-06-28T12:17:45Z) - Your Room is not Private: Gradient Inversion Attack on Reinforcement
Learning [47.96266341738642]
プライバシーは、ロボットが実質的な個人情報にアクセスすることによって、具体化されたAIの領域における重要な関心事として浮上する。
本稿では, 状態, 行動, 監視信号の再構成に勾配インバージョンを利用する, 値ベースアルゴリズムと勾配ベースアルゴリズムに対する攻撃を提案する。
論文 参考訳(メタデータ) (2023-06-15T16:53:26Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Privacy-Preserving Machine Learning for Collaborative Data Sharing via
Auto-encoder Latent Space Embeddings [57.45332961252628]
データ共有プロセスにおけるプライバシ保護機械学習は、極めて重要なタスクである。
本稿では、オートエンコーダによる表現学習を用いて、プライバシーを保護した組込みデータを生成する革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-10T17:36:58Z) - Learning and Retrieval from Prior Data for Skill-based Imitation
Learning [47.59794569496233]
従来のデータから時間的に拡張された感触者スキルを抽出する,スキルベースの模倣学習フレームワークを開発した。
新規タスクの性能を著しく向上させる重要な設計選択をいくつか挙げる。
論文 参考訳(メタデータ) (2022-10-20T17:34:59Z) - An Efficient Industrial Federated Learning Framework for AIoT: A Face
Recognition Application [9.977688793193012]
近年,モノの人工知能(AIoT)が注目されている。
データのプライバシーに関する最近の規制は、機密性の高いローカルデータをデータセンターにアップロードすることを妨げる。
顔認識アプリケーションの観点から,AIoTのための効率的な産業連携学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-21T14:03:20Z) - Federated Learning and Differential Privacy: Software tools analysis,
the Sherpa.ai FL framework and methodological guidelines for preserving data
privacy [8.30788601976591]
本稿では,フェデレートラーニングと差分プライバシの全体観に基づいて構築されたSherpa.aiフェデレーションラーニングフレームワークを提案する。
本稿では,Sherpa.aiフェデレートラーニングフレームワークで方法論ガイドラインに従う方法について,分類と回帰ユースケースを用いて示す。
論文 参考訳(メタデータ) (2020-07-02T06:47:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。