論文の概要: ENAGRAM: An App to Evaluate Preventative Nudges for Instagram
- arxiv url: http://arxiv.org/abs/2208.04649v2
- Date: Thu, 18 Aug 2022 16:05:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 10:25:07.550358
- Title: ENAGRAM: An App to Evaluate Preventative Nudges for Instagram
- Title(参考訳): ENAGRAM:Instagramの予防的ナッジを評価するアプリ
- Authors: Nicol\'as E. D\'iaz Ferreyra, Sina Ostendorf, Esma A\"imeur, Maritta
Heisel and Matthias Brand
- Abstract要約: この研究は、予防的な汚泥を評価するアプリケーションENAGRAMを提示する。
私たちはENAGRAMを、Instagramユーザーの自己開示決定をヌードするためのリスクベースの戦略をテストする手段として使用しました。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Online self-disclosure is perhaps one of the last decade's most studied
communication processes, thanks to the introduction of Online Social Networks
(OSNs) like Facebook. Self-disclosure research has contributed significantly to
the design of preventative nudges seeking to support and guide users when
revealing private information in OSNs. Still, assessing the effectiveness of
these solutions is often challenging since changing or modifying the choice
architecture of OSN platforms is practically unfeasible. In turn, the
effectiveness of numerous nudging designs is supported primarily by
self-reported data instead of actual behavioral information. This work presents
ENAGRAM, an app for evaluating preventative nudges, and reports the first
results of an empirical study conducted with it. Such a study aims to showcase
how the app (and the data collected with it) can be leveraged to assess the
effectiveness of a particular nudging approach. We used ENAGRAM as a vehicle to
test a risk-based strategy for nudging the self-disclosure decisions of
Instagram users. For this, we created two variations of the same nudge and
tested it in a between-subjects experimental setting. Study participants (N=22)
were recruited via Prolific and asked to use the app regularly for 7 days. An
online survey was distributed at the end of the experiment to measure some
privacy-related constructs. From the data collected with ENAGRAM, we observed
lower (though non-significant) self-disclosure levels when applying risk-based
interventions. The constructs measured with the survey were not significant
either, except for participants' External Information Privacy Concerns. Our
results suggest that (i) ENAGRAM is a suitable alternative for conducting
longitudinal experiments in a privacy-friendly way, and (ii) it provides a
flexible framework for the evaluation of a broad spectrum of nudging solutions.
- Abstract(参考訳): オンラインの自己開示は、おそらくFacebookのようなオンラインソーシャルネットワーク(OSN)の導入によって、過去10年間で最も研究されてきたコミュニケーションプロセスの1つである。
自己開示研究は、OSNの個人情報を公開する際にユーザを支援し、ガイドしようとする予防的ナッジの設計に大きく貢献している。
しかし、OSNプラットフォームの選択アーキテクチャの変更や変更は事実上不可能であるため、これらのソリューションの有効性を評価することはしばしば困難である。
逆に、多数のヌージングデザインの有効性は、実際の行動情報ではなく、主に自己報告データによって支持される。
本研究は,予防汚泥評価アプリENAGRAMを提示し,それを用いた実証研究の最初の成果を報告する。
このような研究は、アプリ(とそれで収集されたデータ)をどのように活用し、特定のヌーディングアプローチの有効性を評価するかを示すことを目的としている。
enagramを車両として使用し、instagramユーザーの自己開示判断を判断するためのリスクベースの戦略をテストしました。
このために、同じナッジの2つのバリエーションを作成し、実験環境でテストしました。
調査参加者(N=22)はProlific経由で採用され、定期的に7日間アプリの使用を依頼された。
オンライン調査は実験の最後に配布され、プライバシーに関するいくつかの構成を計測した。
ENAGRAMで収集したデータから,リスクベースの介入を行う際の自己開示レベルが低かった。
また, 参加者の外部情報プライバシーに関する懸念を除いて, 調査で測定した内容も重要ではなかった。
私たちの結果は
(i)ENAGRAMは、プライバシーに優しい方法で縦断実験を行うのに適した代替品であり、
(ii)nudgingソリューションの幅広いスペクトルを評価するための柔軟なフレームワークを提供する。
関連論文リスト
- Model Inversion Attacks: A Survey of Approaches and Countermeasures [59.986922963781]
近年、新しいタイプのプライバシ攻撃であるモデル反転攻撃(MIA)は、トレーニングのためのプライベートデータの機密性を抽出することを目的としている。
この重要性にもかかわらず、総合的な概要とMIAに関する深い洞察を提供する体系的な研究が欠如している。
本調査は、攻撃と防御の両方において、最新のMIA手法を要約することを目的としている。
論文 参考訳(メタデータ) (2024-11-15T08:09:28Z) - Beyond Keywords: A Context-based Hybrid Approach to Mining Ethical Concern-related App Reviews [0.0]
倫理的懸念に関連するアプリケーションレビューは一般的にドメイン固有の言語を使用し、より多様な語彙を使って表現される。
本研究では、自然言語推論(NLI)とデコーダ限定(LLaMAライク)大規模言語モデル(LLM)を組み合わせて、倫理的関心事に関するアプリレビューを大規模に抽出する、新しい自然言語処理(NLI)アプローチを提案する。
論文 参考訳(メタデータ) (2024-11-11T22:08:48Z) - On Active Privacy Auditing in Supervised Fine-tuning for White-Box Language Models [7.275432177367344]
パーシングは、言語モデル(LM)の教師付き微調整中にプライバシー漏洩リスクを特定し定量化するように設計されている。
我々は,GPT-2,Llama2などの大規模LMに対するMIA(White-box Membering Inference attack)の有効性を改善した。
本研究の目的は,LMのSFTコミュニティに対して,信頼性と使用可能なプライバシ監査ツールの提供と,微調整プロセス中のプライバシ保護に関する貴重な洞察を提供することである。
論文 参考訳(メタデータ) (2024-11-11T15:46:07Z) - Large Language Models for Next Point-of-Interest Recommendation [53.93503291553005]
位置情報ベースのソーシャルネットワーク(LBSN)データは、しばしば次のPoint of Interest(POI)レコメンデーションタスクに使用される。
しばしば無視される課題の1つは、LBSNデータに存在する豊富なコンテキスト情報を効果的に利用する方法である。
本稿では,この課題に対処するために,LLM(Large Language Models)を用いたフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-19T13:28:36Z) - Interactive Graph Convolutional Filtering [79.34979767405979]
インタラクティブ・レコメンダ・システム(IRS)は、パーソナライズされた記事レコメンデーション、ソーシャルメディア、オンライン広告など、さまざまな領域でますます利用されている。
これらの問題は、コールドスタート問題とデータスポーサリティ問題によって悪化する。
既存のMulti-Armed Bandit手法は、慎重に設計された探査戦略にもかかわらず、しばしば初期の段階で満足な結果を提供するのに苦労する。
提案手法は,ユーザとアイテム間の協調フィルタリング性能を向上させるため,協調フィルタリングをグラフモデルに拡張する。
論文 参考訳(メタデータ) (2023-09-04T09:02:31Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - Turning Privacy-preserving Mechanisms against Federated Learning [22.88443008209519]
我々は、連邦学習のための最先端の防衛を無効化できる攻撃を設計する。
提案した攻撃には、2つの動作モードが含まれており、第1は収束抑制(逆モード)に焦点を当て、第2はグローバルフェデレーションモデル(バックドアモード)に誤評価インジェクションを構築することを目的としている。
実験の結果,バックドアモードで実施したテストの93%のケースにおいて,両モードにおける攻撃の有効性が示され,敵モードと完全有効バックドアの全テストにおいて平均60%のパフォーマンス低下が回復した。
論文 参考訳(メタデータ) (2023-05-09T11:43:31Z) - Black-box Dataset Ownership Verification via Backdoor Watermarking [67.69308278379957]
我々は、リリースデータセットの保護を、(目立たしい)サードパーティモデルのトレーニングに採用されているかどうかの検証として定式化する。
バックドアの透かしを通じて外部パターンを埋め込んでオーナシップの検証を行い,保護することを提案する。
具体的には、有毒なバックドア攻撃(例えばBadNets)をデータセットのウォーターマーキングに利用し、データセット検証のための仮説テストガイダンスメソッドを設計する。
論文 参考訳(メタデータ) (2022-08-04T05:32:20Z) - Towards Mass Adoption of Contact Tracing Apps -- Learning from Users'
Preferences to Improve App Design [3.187723878624947]
市場調査手法とコンジョイント分析を用いて,接触追跡アプリのユーザ嗜好について検討する。
欧州の連絡先追跡アプリのプライバシー保護設計を確認した。
目標整合性機能の追加は、大量導入を促進する上で重要な役割を果たすと結論付けている。
論文 参考訳(メタデータ) (2020-11-24T19:08:09Z) - Emerging App Issue Identification via Online Joint Sentiment-Topic
Tracing [66.57888248681303]
本稿では,MERITという新しい問題検出手法を提案する。
AOBSTモデルに基づいて、1つのアプリバージョンに対するユーザレビューに否定的に反映されたトピックを推測する。
Google PlayやAppleのApp Storeで人気のアプリに対する実験は、MERITの有効性を実証している。
論文 参考訳(メタデータ) (2020-08-23T06:34:05Z) - Privacy for Rescue: A New Testimony Why Privacy is Vulnerable In Deep
Models [6.902994369582068]
エッジクラウドシステム実行モデルにおけるプライバシ保護問題の形式的定義を示す。
我々は最先端の手法を分析し、それらの手法の欠点を指摘する。
本稿では,プライバシー保護手法の有効性を評価するために,より正確な2つの指標を提案する。
論文 参考訳(メタデータ) (2019-12-31T15:55:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。