論文の概要: The Dilemma of Privacy Protection for Developers in the Metaverse
- arxiv url: http://arxiv.org/abs/2501.12006v1
- Date: Tue, 21 Jan 2025 09:56:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:19:08.057561
- Title: The Dilemma of Privacy Protection for Developers in the Metaverse
- Title(参考訳): メタバースにおける開発者のプライバシ保護のジレンマ
- Authors: Argianto Rahartomo, Leonel Merino, Mohammad Ghafari, Yoshiki Ohshima,
- Abstract要約: 開発者はメタバース専用の機密データを識別する戦略を欠いている。
APIドキュメントには機密情報を収集するガイドラインが含まれているが、識別と保護の指示を省略している。
- 参考スコア(独自算出の注目度): 0.4312340306206883
- License:
- Abstract: To investigate the level of support and awareness developers possess for dealing with sensitive data in the metaverse, we surveyed developers, consulted legal frameworks, and analyzed API documentation in the metaverse. Our preliminary results suggest that privacy is a major concern, but developer awareness and existing support are limited. Developers lack strategies to identify sensitive data that are exclusive to the metaverse. The API documentation contains guidelines for collecting sensitive information, but it omits instructions for identifying and protecting it. Legal frameworks include definitions that are subject to individual interpretation. These findings highlight the urgent need to build a transparent and common ground for privacy definitions, identify sensitive data, and implement usable protection measures.
- Abstract(参考訳): 開発者がメタバースでセンシティブなデータを扱うためのサポートと意識のレベルを調べるために、私たちは開発者を調査し、法律フレームワークをコンサルティングし、メタバースでAPIドキュメンテーションを分析した。
予備的な結果は、プライバシが大きな関心事であることを示しているが、開発者の意識と既存のサポートは限られている。
開発者はメタバース専用の機密データを識別する戦略を欠いている。
APIドキュメントには機密情報を収集するためのガイドラインが含まれているが、識別と保護の指示を省略している。
法律の枠組みには、個々の解釈の対象となる定義が含まれる。
これらの発見は、プライバシー定義の透明性と共通基盤を構築し、機密データを識別し、使用可能な保護措置を実装する緊急の必要性を強調している。
関連論文リスト
- Differential Privacy Overview and Fundamental Techniques [63.0409690498569]
この章は、"Differential Privacy in Artificial Intelligence: From Theory to Practice"という本の一部である。
まず、データのプライバシ保護のためのさまざまな試みについて説明し、その失敗の場所と理由を強調した。
次に、プライバシ保護データ分析の領域を構成する重要なアクター、タスク、スコープを定義する。
論文 参考訳(メタデータ) (2024-11-07T13:52:11Z) - An Empirical Study of Sensitive Information in Logs [12.980238412281471]
ソフトウェアログにおける機密情報の存在は、重大なプライバシー上の懸念を生じさせる。
この研究は、複数の観点からソフトウェアログのプライバシーを包括的に分析する。
当社の調査結果は、ログのプライバシーに関するさまざまな視点に光を当て、業界の課題を明らかにしました。
論文 参考訳(メタデータ) (2024-09-17T16:12:23Z) - A Large-Scale Privacy Assessment of Android Third-Party SDKs [17.245330733308375]
サードパーティのソフトウェア開発キット(SDK)は、Androidアプリ開発で広く採用されている。
この利便性は、ユーザのプライバシに敏感な情報への不正アクセスに関するかなりの懸念を引き起こす。
当社の研究では,AndroidサードパーティSDK間のユーザプライバシ保護を対象とする分析を行っている。
論文 参考訳(メタデータ) (2024-09-16T15:44:43Z) - How Privacy-Savvy Are Large Language Models? A Case Study on Compliance and Privacy Technical Review [15.15468770348023]
プライバシ情報抽出(PIE)、法および規制キーポイント検出(KPD)、質問応答(QA)などのプライバシー関連タスクにおいて、大規模言語モデルの性能を評価する。
本稿では, BERT, GPT-3.5, GPT-4, カスタムモデルなど, プライバシコンプライアンスチェックや技術プライバシレビューの実行能力について検討する。
LLMは、プライバシーレビューの自動化と規制上の相違点の特定を約束する一方で、法律標準の進化に完全に準拠する能力において、大きなギャップが持続している。
論文 参考訳(メタデータ) (2024-09-04T01:51:37Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Collection, usage and privacy of mobility data in the enterprise and public administrations [55.2480439325792]
個人のプライバシーを守るためには、匿名化などのセキュリティ対策が必要である。
本研究では,現場における実践の洞察を得るために,専門家によるインタビューを行った。
我々は、一般的には最先端の差分プライバシー基準に準拠しない、使用中のプライバシー強化手法を調査した。
論文 参考訳(メタデータ) (2024-07-04T08:29:27Z) - A Survey of Privacy-Preserving Model Explanations: Privacy Risks, Attacks, and Countermeasures [50.987594546912725]
AIのプライバシと説明可能性に関する研究が増えているにもかかわらず、プライバシを保存するモデル説明にはほとんど注意が払われていない。
本稿では,モデル説明に対するプライバシ攻撃とその対策に関する,最初の徹底的な調査を紹介する。
論文 参考訳(メタデータ) (2024-03-31T12:44:48Z) - Toward an Android Static Analysis Approach for Data Protection [7.785051236155595]
この論文は,Androidアプリにおけるデータ保護の説明の必要性を動機付けている。
データ分析は、ソースコード内の個人データソースを認識する。
開発者はデータ操作やデータ操作に関する重要な質問に答えることができる。
論文 参考訳(メタデータ) (2024-02-12T18:52:39Z) - SPAct: Self-supervised Privacy Preservation for Action Recognition [73.79886509500409]
アクション認識におけるプライバシー漏洩を緩和するための既存のアプローチは、ビデオデータセットのアクションラベルとともに、プライバシラベルを必要とする。
自己教師付き学習(SSL)の最近の進歩は、未ラベルデータの未発見の可能性を解き放ちつつある。
本稿では、プライバシーラベルを必要とせず、自己管理的な方法で、入力ビデオからプライバシー情報を除去する新しいトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-29T02:56:40Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - Learning With Differential Privacy [3.618133010429131]
異なるプライバシーは、漏洩に対する適切な保護を約束して救助にやってくる。
データの収集時にランダムな応答技術を使用し、より優れたユーティリティで強力なプライバシを保証します。
論文 参考訳(メタデータ) (2020-06-10T02:04:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。