論文の概要: An Empirical Study of Sensitive Information in Logs
- arxiv url: http://arxiv.org/abs/2409.11313v1
- Date: Tue, 17 Sep 2024 16:12:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-18 15:47:40.994209
- Title: An Empirical Study of Sensitive Information in Logs
- Title(参考訳): ログ中の感性情報に関する実証的研究
- Authors: Roozbeh Aghili, Heng Li, Foutse Khomh,
- Abstract要約: ソフトウェアログにおける機密情報の存在は、重大なプライバシー上の懸念を生じさせる。
この研究は、複数の観点からソフトウェアログのプライバシーを包括的に分析する。
当社の調査結果は、ログのプライバシーに関するさまざまな視点に光を当て、業界の課題を明らかにしました。
- 参考スコア(独自算出の注目度): 12.980238412281471
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Software logs, generated during the runtime of software systems, are essential for various development and analysis activities, such as anomaly detection and failure diagnosis. However, the presence of sensitive information in these logs poses significant privacy concerns, particularly regarding Personally Identifiable Information (PII) and quasi-identifiers that could lead to re-identification risks. While general data privacy has been extensively studied, the specific domain of privacy in software logs remains underexplored, with inconsistent definitions of sensitivity and a lack of standardized guidelines for anonymization. To mitigate this gap, this study offers a comprehensive analysis of privacy in software logs from multiple perspectives. We start by performing an analysis of 25 publicly available log datasets to identify potentially sensitive attributes. Based on the result of this step, we focus on three perspectives: privacy regulations, research literature, and industry practices. We first analyze key data privacy regulations, such as the General Data Protection Regulation (GDPR) and the California Consumer Privacy Act (CCPA), to understand the legal requirements concerning sensitive information in logs. Second, we conduct a systematic literature review to identify common privacy attributes and practices in log anonymization, revealing gaps in existing approaches. Finally, we survey 45 industry professionals to capture practical insights on log anonymization practices. Our findings shed light on various perspectives of log privacy and reveal industry challenges, such as technical and efficiency issues while highlighting the need for standardized guidelines. By combining insights from regulatory, academic, and industry perspectives, our study aims to provide a clearer framework for identifying and protecting sensitive information in software logs.
- Abstract(参考訳): ソフトウェアログは、ソフトウェアシステムの実行中に生成され、異常検出や故障診断などの様々な開発および分析活動に不可欠である。
しかし、これらのログに機密情報が存在することは、特にPII(Personally Identible Information)や準識別について重要なプライバシー上の懸念を引き起こす。
一般的なデータのプライバシは広く研究されているが、ソフトウェアログの特定のプライバシ領域は、センシティブな定義と匿名化のための標準化されたガイドラインが欠如しているため、未調査のままである。
このギャップを軽減するために、本研究では、複数の視点からソフトウェアログのプライバシーを包括的に分析する。
まず、潜在的に機密性の高い属性を特定するために、公開可能な25のログデータセットの分析から始めます。
このステップの結果に基づいて、プライバシー規制、研究文献、産業プラクティスの3つの視点に焦点を当てる。
我々はまず、ログ内の機密情報に関する法的要件を理解するために、GDPR(General Data Protection Regulation)やCCPA(California Consumer Privacy Act)といった主要なデータプライバシ規制を分析します。
第2に、ログ匿名化における共通プライバシー属性とプラクティスを特定するための体系的な文献レビューを行い、既存のアプローチのギャップを明らかにする。
最後に、45人の業界プロフェッショナルを対象に、ログ匿名化プラクティスに関する実践的な洞察を収集する。
当社の調査結果は、ログプライバシに関するさまざまな視点に光を当て、標準化されたガイドラインの必要性を強調しながら、技術や効率の問題などの業界の課題を明らかにしました。
規制,学術,産業の観点からの洞察を組み合わせることで,ソフトウェアログ内の機密情報を識別し,保護するための,より明確なフレームワークの提供を目指す。
関連論文リスト
- Privacy-Preserving Redaction of Diagnosis Data through Source Code Analysis [4.721903499874626]
我々は、ログのリアクションのためのソースコード解析アプローチについて論じる。
本手法では,機密情報を含むログメッセージを識別するために,対応するログ文をソースコード内に配置する。
論文 参考訳(メタデータ) (2024-09-26T04:41:55Z) - Collection, usage and privacy of mobility data in the enterprise and public administrations [55.2480439325792]
個人のプライバシーを守るためには、匿名化などのセキュリティ対策が必要である。
本研究では,現場における実践の洞察を得るために,専門家によるインタビューを行った。
我々は、一般的には最先端の差分プライバシー基準に準拠しない、使用中のプライバシー強化手法を調査した。
論文 参考訳(メタデータ) (2024-07-04T08:29:27Z) - A Summary of Privacy-Preserving Data Publishing in the Local Setting [0.6749750044497732]
統計開示制御は、機密情報を匿名化して暴露するリスクを最小限にすることを目的としている。
マイクロデータの復号化に使用される現在のプライバシ保存技術について概説し、様々な開示シナリオに適したプライバシ対策を掘り下げ、情報損失と予測性能の指標を評価する。
論文 参考訳(メタデータ) (2023-12-19T04:23:23Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Security and Privacy on Generative Data in AIGC: A Survey [17.456578314457612]
我々はAIGCにおける生成データのセキュリティとプライバシについてレビューする。
プライバシ、制御性、信頼性、コンプライアンスの基本的な性質の観点から、最先端の対策が成功した経験を明らかにする。
論文 参考訳(メタデータ) (2023-09-18T02:35:24Z) - Helping Code Reviewer Prioritize: Pinpointing Personal Data and its
Processing [0.9238700679836852]
我々は、コードレビュアーが個人データに関連する作業の優先順位付けを支援するために、2つの専門的なビューを設計しました。
当社のアプローチは、4つのオープンソースGitHubアプリケーションで評価され、個人データフローを識別する精度が0.87であることを示した。
このソリューションは、ROPA(Record of Processing Activity)のようなプライバシ関連の分析タスクの効率を高めるために設計されており、リソースの保存、時間節約、コードレビュアーの生産性向上を目的としている。
論文 参考訳(メタデータ) (2023-06-20T12:30:46Z) - Private Domain Adaptation from a Public Source [48.83724068578305]
我々は、公開ラベル付きデータを持つソースドメインから、未ラベル付きプライベートデータを持つターゲットドメインへの適応のための差分プライベート離散性に基づくアルゴリズムを設計する。
我々の解は、Frank-WolfeとMirror-Descentアルゴリズムのプライベートな変種に基づいている。
論文 参考訳(メタデータ) (2022-08-12T06:52:55Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Reinforcement Learning on Encrypted Data [58.39270571778521]
本稿では,DQNエージェントが,離散的かつ連続的な状態空間を持つ環境でどのように動作するかを予備的,実験的に検討する。
その結果,非決定論的暗号が存在する場合でも,エージェントは依然として小さな状態空間で学習することができるが,より複雑な環境では性能が低下することがわかった。
論文 参考訳(メタデータ) (2021-09-16T21:59:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。