論文の概要: Privacy-preserving and reward-based mechanisms of proof of engagement
- arxiv url: http://arxiv.org/abs/2506.12523v1
- Date: Sat, 14 Jun 2025 14:33:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:46.409652
- Title: Privacy-preserving and reward-based mechanisms of proof of engagement
- Title(参考訳): エンゲージメント証明のプライバシ保護と報酬に基づくメカニズム
- Authors: Matteo Marco Montanari, Alessandro Aldini,
- Abstract要約: この研究は、DLTや集中型システムに基づく確立した技術など、さまざまなソリューションを探求する。
私たちが考慮する主な側面は、ユーザに保証されるプライバシーのレベル、PoA/PoEの範囲(時間と空間の両方)、証明の転送可能性、インセンティブメカニズムとの統合などです。
- 参考スコア(独自算出の注目度): 49.1574468325115
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Proof-of-Attendance (PoA) mechanisms are typically employed to demonstrate a specific user's participation in an event, whether virtual or in-person. The goal of this study is to extend such mechanisms to broader contexts where the user wishes to digitally demonstrate her involvement in a specific activity (Proof-of-Engagement, PoE). This work explores different solutions, including DLTs as well as established technologies based on centralized systems. The main aspects we consider include the level of privacy guaranteed to users, the scope of PoA/PoE (both temporal and spatial), the transferability of the proof, and the integration with incentive mechanisms.
- Abstract(参考訳): Proof-of-Attendance(PoA)メカニズムは、通常、仮想または対人を問わず、特定のユーザのイベントへの参加を示すために使用される。
本研究の目的は、ユーザが特定の活動(Proof-of-Engagement, PoE)への関与をデジタルで示すような、より広い文脈にそのメカニズムを拡張することである。
この研究は、DLTや集中型システムに基づく確立した技術など、さまざまなソリューションを探求する。
私たちが考慮する主な側面は、ユーザに保証されるプライバシーのレベル、PoA/PoEの範囲(時間と空間の両方)、証明の転送可能性、インセンティブメカニズムとの統合などです。
関連論文リスト
- Differential Privacy in Machine Learning: From Symbolic AI to LLMs [49.1574468325115]
差別化プライバシは、プライバシーリスクを軽減するための正式なフレームワークを提供する。
単一のデータポイントの包含や除外がアルゴリズムの出力を著しく変更しないことを保証する。
論文 参考訳(メタデータ) (2025-06-13T11:30:35Z) - Personhood Credentials: Human-Centered Design Recommendation Balancing Security, Usability, and Trust [2.3020018305241337]
代替アプローチとして、分散識別子(DID)、人格証明、匿名認証、人格認証(PHC)など、関連する概念に基づいて構築された。
重要性の高まりにもかかわらず、利用者のPHCに対する認識や嗜好について限定的な研究がなされている。
具体的な設計勧告を提供するため,米国とEUの23人の参加者を対象に,競争分析と半構造化オンラインユーザインタビューを行った。
論文 参考訳(メタデータ) (2025-02-22T22:33:00Z) - Distributed Identity for Zero Trust and Segmented Access Control: A Novel Approach to Securing Network Infrastructure [4.169915659794567]
本研究は、分散IDをZTA原則で適用した際のセキュリティ改善を評価する。
この研究は、分散IDを採用することで、全体的なセキュリティ姿勢を桁違いに向上させることができることを示唆している。
この研究は、技術的標準の洗練、分散IDの実践的利用の拡大、および現代のデジタルセキュリティ分野への応用を推奨している。
論文 参考訳(メタデータ) (2025-01-14T00:02:02Z) - Collaborative Inference over Wireless Channels with Feature Differential Privacy [57.68286389879283]
複数の無線エッジデバイス間の協調推論は、人工知能(AI)アプリケーションを大幅に強化する可能性がある。
抽出された特徴を抽出することは、プロセス中に機密性の高い個人情報が暴露されるため、重大なプライバシーリスクをもたらす。
本稿では,ネットワーク内の各エッジデバイスが抽出された機能のプライバシを保護し,それらを中央サーバに送信して推論を行う,新たなプライバシ保存協調推論機構を提案する。
論文 参考訳(メタデータ) (2024-10-25T18:11:02Z) - Over-the-Air Collaborative Inference with Feature Differential Privacy [8.099700053397278]
協調推論は、自律運転、個人識別、アクティビティ分類を含む人工知能(AI)の応用を強化することができる。
抽出された特徴の伝達は、機密性の高い個人情報を暴露する危険性を伴う。
新たなプライバシ保護協調推論機構が開発されている。
論文 参考訳(メタデータ) (2024-06-01T01:39:44Z) - Evaluating Google's Protected Audience Protocol [7.737740676767729]
Googleは、サードパーティのクッキーを使わずに広告ターゲティングを可能にする、Privacy Sandboxイニシアチブを提案した。
本研究は,Protected Audience提案で提案されている報告メカニズムのリンクプライバシーリスクの分析に焦点をあてる。
論文 参考訳(メタデータ) (2024-05-13T18:28:56Z) - Unified Mechanism-Specific Amplification by Subsampling and Group Privacy Amplification [54.1447806347273]
サブサンプリングによる増幅は、差分プライバシーを持つ機械学習の主要なプリミティブの1つである。
本稿では、メカニズム固有の保証を導出するための最初の一般的なフレームワークを提案する。
サブサンプリングが複数のユーザのプライバシに与える影響を分析する。
論文 参考訳(メタデータ) (2024-03-07T19:36:05Z) - Trustworthy AI Inference Systems: An Industry Research View [58.000323504158054]
我々は、信頼できるAI推論システムの設計、展開、運用にアプローチするための業界調査ビューを提供する。
信頼された実行環境を用いたAIシステムの機会と課題を強調します。
我々は,産業,アカデミック,政府研究者のグローバルな集団的注意を必要とする,さらなる発展の分野を概説する。
論文 参考訳(メタデータ) (2020-08-10T23:05:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。