論文の概要: Stop the Spread: A Contextual Integrity Perspective on the
Appropriateness of COVID-19 Vaccination Certificates
- arxiv url: http://arxiv.org/abs/2205.09036v2
- Date: Thu, 19 May 2022 00:42:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 17:03:11.964537
- Title: Stop the Spread: A Contextual Integrity Perspective on the
Appropriateness of COVID-19 Vaccination Certificates
- Title(参考訳): 感染拡大を止める: 新型コロナウイルスワクチン認定の適正性に関するコンテキスト統合的視点
- Authors: Shikun Zhang, Yan Shvartzshnaider, Yuanyuan Feng, Helen Nissenbaum,
Norman Sadeh
- Abstract要約: この研究はコンテキスト整合性というプライバシーの枠組みを採用した。
人口統計学的に分析した米国人口の890人を対象に調査を行った。
- 参考スコア(独自算出の注目度): 20.340965439974596
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present an empirical study exploring how privacy influences the acceptance
of vaccination certificate (VC) deployments across different realistic usage
scenarios. The study employed the privacy framework of Contextual Integrity,
which has been shown to be particularly effective in capturing people's privacy
expectations across different contexts. We use a vignette methodology, where we
selectively manipulate salient contextual parameters to learn whether and how
they affect people's attitudes towards VCs. We surveyed 890 participants from a
demographically-stratified sample of the US population to gauge the acceptance
and overall attitudes towards possible VC deployments to enforce vaccination
mandates and the different information flows VCs might entail. Analysis of
results collected as part of this study is used to derive general normative
observations about different possible VC practices and to provide guidance for
the possible deployments of VCs in different contexts.
- Abstract(参考訳): 本稿では,異なる現実的利用シナリオにまたがる予防接種証明書(vc)の受容にプライバシが与える影響について検討する。
この調査では、コンテキスト整合性のプライバシーフレームワークが採用され、さまざまなコンテキストにおける人々のプライバシの期待を捉えるのに特に有効であることが示されている。
我々は、Vignetteの手法を用いて、適切な文脈パラメータを選択的に操作し、それがVCに対する人々の態度に与える影響を学習する。
われわれは、人口統計学的に分類された米国人口の890人の参加者を調査し、予防接種義務を強制するためのVC展開の受け入れと全体的な態度、そしてVCが必要とするさまざまな情報フローを計測した。
この研究の一環として収集された結果の分析は、さまざまなVCプラクティスに関する一般的な規範的な観察を導き、異なるコンテキストにおけるVCの展開に関するガイダンスを提供するために使用される。
関連論文リスト
- Extracting Training Data from Document-Based VQA Models [67.1470112451617]
VLM(Vision-Language Models)は、文書ベースの視覚質問回答において顕著な進歩を遂げている(つまり、画像として提供される入力文書の内容に関する問い合わせに応答する)。
これらのモデルでは、関連する視覚情報が削除された場合でも、トレーニングサンプルに対する応答を記憶し、それらをリグルジタイズすることができる。
これには、トレーニングセットで繰り返し繰り返されるパーソナライズ可能な情報が含まれており、これらのモデルが機密情報を漏らし、したがってプライバシーリスクを引き起こす可能性があることを示している。
論文 参考訳(メタデータ) (2024-07-11T17:44:41Z) - Meta-Learners for Partially-Identified Treatment Effects Across Multiple Environments [67.80453452949303]
観察データから条件平均治療効果(CATE)を推定することは、パーソナライズされた医療など多くの応用に関係している。
ここでは、観測データが複数の環境からやってくる広範囲な環境に焦点を当てる。
任意の機械学習モデルと組み合わせて使用可能な境界を推定するために、異なるモデルに依存しない学習者(いわゆるメタ学習者)を提案する。
論文 参考訳(メタデータ) (2024-06-04T16:31:43Z) - Detecting Multimodal Situations with Insufficient Context and Abstaining from Baseless Predictions [75.45274978665684]
VLU(Vision-Language Understanding)ベンチマークには、提供されたコンテキストによってサポートされない仮定に答えが依存するサンプルが含まれている。
サンプル毎にコンテキストデータを収集し,エビデンスに基づくモデル予測を促進するためにコンテキスト選択モジュールをトレーニングする。
我々は,十分なコンテキストを欠いたサンプルを同定し,モデル精度を向上させる汎用なコンテキスト・アワレ認識検出器を開発した。
論文 参考訳(メタデータ) (2024-05-18T02:21:32Z) - Hierarchical Multi-Label Classification of Online Vaccine Concerns [8.271202196208]
ワクチンの懸念は進化を続けるターゲットであり、新型コロナウイルス(COVID-19)のパンデミックで見られるように急速に変化する可能性がある。
本稿では,大規模言語モデル(LLM)を用いて,高価なトレーニングデータセットを必要とせず,ゼロショット設定でワクチンの関心事を検出するタスクについて検討する。
論文 参考訳(メタデータ) (2024-02-01T20:56:07Z) - SA-Attack: Improving Adversarial Transferability of Vision-Language
Pre-training Models via Self-Augmentation [56.622250514119294]
ホワイトボックスの敵攻撃とは対照的に、転送攻撃は現実世界のシナリオをより反映している。
本稿では,SA-Attackと呼ばれる自己拡張型転送攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T09:08:50Z) - Invariant Causal Imitation Learning for Generalizable Policies [87.51882102248395]
Invariant Causal Learning (ICIL) を提案する。
ICILはノイズ変数の特定の表現から切り離された因果的特徴の表現を学習する。
ICILは、目に見えない環境に一般化可能な模倣ポリシーの学習に有効であることを示す。
論文 参考訳(メタデータ) (2023-11-02T16:52:36Z) - Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - Adversarial Learning-based Stance Classifier for COVID-19-related Health
Policies [14.558584240713154]
本研究では、新型コロナウイルス関連健康政策に対する公衆の態度を自動的に識別する対人学習に基づくスタンス分類器を提案する。
モデルをより深く理解するために、モデルに外部知識としてポリシー記述を組み込む。
新型コロナウイルス関連健康政策のスタンス検出タスクにおいて,幅広い基準線の性能を評価する。
論文 参考訳(メタデータ) (2022-09-10T10:27:21Z) - Disentangled Learning of Stance and Aspect Topics for Vaccine Attitude
Detection in Social Media [40.61499595293957]
VADetと呼ばれるワクチンの姿勢検出のための新しい半教師付きアプローチを提案する。
VADetは、歪んだ姿勢とアスペクトトピックを学習することができ、スタンス検出とツイートクラスタリングの両方で、既存のアスペクトベースの感情分析モデルより優れています。
論文 参考訳(メタデータ) (2022-05-06T15:24:33Z) - Why Should I Trust a Model is Private? Using Shifts in Model Explanation
for Evaluating Privacy-Preserving Emotion Recognition Model [35.016050900061]
本稿では,モデルの有効性を評価するために解釈可能な手法を用いることに焦点をあてる。
プライバシーを守るための一般的な方法が、プライバシー保護の人間の認識とどのように一致しないかを示します。
評価者の傾きを評価し、特定のタスクのモデルを選択するためのクラウドソーシング実験を行います。
論文 参考訳(メタデータ) (2021-04-18T09:56:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。