論文の概要: Privacy-Aware Crowd Labelling for Machine Learning Tasks
- arxiv url: http://arxiv.org/abs/2203.01373v1
- Date: Thu, 3 Feb 2022 18:14:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-06 16:05:14.802085
- Title: Privacy-Aware Crowd Labelling for Machine Learning Tasks
- Title(参考訳): 機械学習タスクのためのプライバシ対応クラウドラベリング
- Authors: Giannis Haralabopoulos and Ioannis Anagnostopoulos
- Abstract要約: クラウドソーシングに基づく各種アプリケーションのためのプライバシ保護テキストラベリング手法を提案する。
我々は、異なるレベルのプライバシーでテキストを変換し、ラベルの相関と一貫性に関する変換の有効性を分析する。
- 参考スコア(独自算出の注目度): 3.6930948691311007
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The extensive use of online social media has highlighted the importance of
privacy in the digital space. As more scientists analyse the data created in
these platforms, privacy concerns have extended to data usage within the
academia. Although text analysis is a well documented topic in academic
literature with a multitude of applications, ensuring privacy of user-generated
content has been overlooked. Most sentiment analysis methods require emotion
labels, which can be obtained through crowdsourcing, where non-expert
individuals contribute to scientific tasks. The text itself has to be exposed
to third parties in order to be labelled. In an effort to reduce the exposure
of online users' information, we propose a privacy preserving text labelling
method for varying applications, based in crowdsourcing. We transform text with
different levels of privacy, and analyse the effectiveness of the
transformation with regards to label correlation and consistency. Our results
suggest that privacy can be implemented in labelling, retaining the
annotational diversity and subjectivity of traditional labelling.
- Abstract(参考訳): オンラインソーシャルメディアの広範な利用は、デジタル空間におけるプライバシーの重要性を強調している。
これらのプラットフォームで作成されたデータをより多くの科学者が分析するにつれ、プライバシーに関する懸念はアカデミック内のデータ利用にまで広がった。
テキスト分析は学術文献では多岐にわたる話題であるが,ユーザ生成コンテンツのプライバシーの確保は見過ごされている。
ほとんどの感情分析手法は感情ラベルを必要とするが、これは非専門家個人が科学的タスクに貢献するクラウドソーシングを通じて得られる。
テキスト自体を第三者に公開してラベル付けする必要がある。
オンライン利用者の情報公開を減らすため,クラウドソーシングに基づく各種アプリケーションを対象としたプライバシ保護テキストラベリング手法を提案する。
我々は、異なるレベルのプライバシーでテキストを変換し、ラベル相関と一貫性に関する変換の有効性を分析する。
この結果から,従来のラベルのアノテーションの多様性と主観性を保ちながら,ラベル付けにおいてプライバシを実装できることが示唆された。
関連論文リスト
- Collection, usage and privacy of mobility data in the enterprise and public administrations [55.2480439325792]
個人のプライバシーを守るためには、匿名化などのセキュリティ対策が必要である。
本研究では,現場における実践の洞察を得るために,専門家によるインタビューを行った。
我々は、一般的には最先端の差分プライバシー基準に準拠しない、使用中のプライバシー強化手法を調査した。
論文 参考訳(メタデータ) (2024-07-04T08:29:27Z) - NAP^2: A Benchmark for Naturalness and Privacy-Preserving Text Rewriting by Learning from Human [55.20137833039499]
我々は,人間によって使用される2つの共通戦略を用いて,機密テキストの衛生化を提案する。
我々は,クラウドソーシングと大規模言語モデルの利用を通じて,NAP2という最初のコーパスをキュレートする。
論文 参考訳(メタデータ) (2024-06-06T05:07:44Z) - Embedding Privacy in Computational Social Science and Artificial Intelligence Research [2.048226951354646]
プライバシーの保護は研究の重要な要素として浮上している。
高度な計算モデルの利用の増加は、プライバシーの懸念を悪化させる。
この記事では、プライバシの役割と、CSS、AI、データサイエンス、および関連するドメインで働く研究者が直面する問題について議論することによって、この分野に貢献する。
論文 参考訳(メタデータ) (2024-04-17T16:07:53Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - Neural Text Sanitization with Privacy Risk Indicators: An Empirical
Analysis [2.9311414545087366]
テキスト・サニタイズのための2段階のアプローチを検討し、その経験的性能を詳細に分析する。
テキストサニタイズプロセスは、プライバシー指向のエンティティ認識器から始まり、識別可能な個人情報を表すテキストを識別する。
本稿では,言語モデルの確率,テキストスパン分類,シーケンスラベリング,摂動,Web検索に基づく再識別リスクの指標を5つ提示する。
論文 参考訳(メタデータ) (2023-10-22T14:17:27Z) - Crowdsourcing on Sensitive Data with Privacy-Preserving Text Rewriting [9.409281517596396]
データラベリングは、スケーラビリティの理由から、クラウドソーシングプラットフォーム上で行われることが多い。
公開プラットフォームにデータを公開するのは、プライバシ関連の情報が含まれていない場合に限られる。
個人識別可能な情報(PII)を削除したり、差分プライバシ(DP)書き換えを行ったりすることで、クラウドソーシングにプライバシ関連情報を用いたテキストを利用できるかを検討する。
論文 参考訳(メタデータ) (2023-03-06T11:54:58Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - A Multi-input Multi-output Transformer-based Hybrid Neural Network for
Multi-class Privacy Disclosure Detection [3.04585143845864]
本稿では,伝達学習,言語学,メタデータを用いて隠れパターンを学習するマルチインプット・マルチアウトプットハイブリッドニューラルネットワークを提案する。
我々は,5,400のツイートを含む人間の注釈付き真実データセットを用いて,我々のモデルを訓練し,評価した。
論文 参考訳(メタデータ) (2021-08-19T03:58:49Z) - Learning Language and Multimodal Privacy-Preserving Markers of Mood from
Mobile Data [74.60507696087966]
精神状態は、先進医療に共通する国でも診断されていない。
人間の行動を監視するための有望なデータソースのひとつは、日々のスマートフォンの利用だ。
本研究では,自殺行動のリスクが高い青少年集団の移動行動のデータセットを用いて,日常生活の行動マーカーについて検討した。
論文 参考訳(メタデータ) (2021-06-24T17:46:03Z) - Applications of Differential Privacy in Social Network Analysis: A
Survey [60.696428840516724]
差別化プライバシは、情報を共有し、強力な保証でプライバシを保存するのに有効である。
ソーシャルネットワーク分析は多くのアプリケーションで広く採用されており、差分プライバシーの応用のための新たな領域が開かれた。
論文 参考訳(メタデータ) (2020-10-06T19:06:03Z) - Privacy Guarantees for De-identifying Text Transformations [17.636430224292866]
我々は、差分プライバシーに基づいて、テキスト変換に基づく復号化手法の正式なプライバシー保証を導出する。
複数の自然言語理解タスクにおける深層学習モデルを用いた,より洗練された単語間置換手法との比較を行った。
単語ごとの置換だけが、様々なタスクのパフォーマンス低下に対して堅牢であることに気付きました。
論文 参考訳(メタデータ) (2020-08-07T12:06:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。