論文の概要: Adapting Security Warnings to Counter Online Disinformation
- arxiv url: http://arxiv.org/abs/2008.10772v6
- Date: Mon, 16 Aug 2021 19:01:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-05 00:10:02.591125
- Title: Adapting Security Warnings to Counter Online Disinformation
- Title(参考訳): オンライン不正情報に対するセキュリティ警告の適用
- Authors: Ben Kaiser, Jerry Wei, Eli Lucherini, Kevin Lee, J. Nathan Matias,
Jonathan Mayer
- Abstract要約: 我々は、効果的な偽情報警告を設計するために、情報セキュリティ警告文献の方法と結果を適用する。
ユーザがいつもコンテキスト警告を無視しているのが分かりましたが、ユーザは間欠警告に気付きます。
警告の設計がユーザに効果的に通知したり、危害のリスクを伝えることができることがわかったのです。
- 参考スコア(独自算出の注目度): 6.592035021489205
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Disinformation is proliferating on the internet, and platforms are responding
by attaching warnings to content. There is little evidence, however, that these
warnings help users identify or avoid disinformation. In this work, we adapt
methods and results from the information security warning literature in order
to design and evaluate effective disinformation warnings. In an initial
laboratory study, we used a simulated search task to examine contextual and
interstitial disinformation warning designs. We found that users routinely
ignore contextual warnings, but users notice interstitial warnings -- and
respond by seeking information from alternative sources. We then conducted a
follow-on crowdworker study with eight interstitial warning designs. We
confirmed a significant impact on user information-seeking behavior, and we
found that a warning's design could effectively inform users or convey a risk
of harm. We also found, however, that neither user comprehension nor fear of
harm moderated behavioral effects. Our work provides evidence that
disinformation warnings can -- when designed well -- help users identify and
avoid disinformation. We show a path forward for designing effective warnings,
and we contribute repeatable methods for evaluating behavioral effects. We also
surface a possible dilemma: disinformation warnings might be able to inform
users and guide behavior, but the behavioral effects might result from user
experience friction, not informed decision making.
- Abstract(参考訳): 偽情報はインターネット上で広まり、プラットフォームはコンテンツに警告を付けることで対応している。
しかし、これらの警告が偽情報の特定や回避に役立つという証拠はほとんどない。
本研究では,情報セキュリティ警告文の手法と結果を適応させ,効果的な誤報警告を設計・評価する。
実験室で行った実験では,シミュレートされた探索課題を用いて,文脈的および間質的な偽情報警告設計を検討した。
ユーザーはいつもコンテキスト警告を無視するが、ユーザーは間欠警告に気付き、代替ソースから情報を求めることで応答する。
続いて,8つの間欠的警告デザインを用いた群集労働者調査を行った。
ユーザ情報検索行動に重大な影響があることを確認し,警告の設計がユーザに効果的に知らせたり,危害のリスクを及ぼす可能性があることを見出した。
しかし, 利用者の理解も, 有害な行動効果の恐れも認めなかった。
我々の研究は、不正情報警告が ― うまく設計すれば ― ユーザーが不正情報を識別し、回避するのに役立つという証拠を提供する。
効果的な警告を設計するための道筋を示し,行動効果を評価するための反復可能な手法を提案する。
偽情報の警告はユーザに通知し、行動を導くことができるが、その行動効果は、インフォームドな意思決定ではなく、ユーザエクスペリエンスの摩擦によって引き起こされる可能性がある。
関連論文リスト
- MisinfoEval: Generative AI in the Era of "Alternative Facts" [50.069577397751175]
本稿では,大規模言語モデル(LLM)に基づく誤情報介入の生成と評価を行うフレームワークを提案する。
本研究では,(1)誤情報介入の効果を測定するための模擬ソーシャルメディア環境の実験,(2)ユーザの人口動態や信念に合わせたパーソナライズされた説明を用いた第2の実験について述べる。
以上の結果から,LSMによる介入はユーザの行動の修正に極めて有効であることが確認された。
論文 参考訳(メタデータ) (2024-10-13T18:16:50Z) - Banal Deception Human-AI Ecosystems: A Study of People's Perceptions of LLM-generated Deceptive Behaviour [11.285775969393566]
大規模言語モデル(LLM)は、ユーザに誤った、不正確な、あるいは誤解を招く情報を提供する。
本研究は,ChatGPTが生成する騙し行動に対する人々の認識について検討する。
論文 参考訳(メタデータ) (2024-06-12T16:36:06Z) - Modeling User Preferences via Brain-Computer Interfacing [54.3727087164445]
我々はBrain-Computer Interface技術を用いてユーザの好みを推測し、その注意力は視覚的コンテンツと感情的体験との関連性に相関する。
我々はこれらを,情報検索,生成モデルのパーソナライズされたステアリング,感情経験のクラウドソーシング人口推定など,関連するアプリケーションにリンクする。
論文 参考訳(メタデータ) (2024-05-15T20:41:46Z) - Measuring Strategization in Recommendation: Users Adapt Their Behavior to Shape Future Content [66.71102704873185]
実験と調査を行うことで,ユーザストラテジゼーションの試行を行う。
参加者の居住時間や「いいね!」の使用など,結果指標間での戦略化の強い証拠を見出す。
この結果から,プラットフォームはアルゴリズムがユーザの行動に与える影響を無視できないことが示唆された。
論文 参考訳(メタデータ) (2024-05-09T07:36:08Z) - Poisoning Federated Recommender Systems with Fake Users [48.70867241987739]
フェデレーテッド・レコメンデーションは、フェデレーテッド・ラーニングにおける顕著なユースケースである。
本稿では,攻撃対象のアイテムを宣伝するために,PisonFRSという偽ユーザによる新たな毒殺攻撃を導入する。
複数の実世界のデータセットに対する実験では、PoisonFRSが攻撃者-チョセンアイテムを真のユーザの大部分に効果的にプロモートできることが示されている。
論文 参考訳(メタデータ) (2024-02-18T16:34:12Z) - Can Sensitive Information Be Deleted From LLMs? Objectives for Defending
Against Extraction Attacks [73.53327403684676]
本稿では,モデル重みから直接センシティブな情報を削除する作業を研究するためのアタック・アンド・ディフェンスフレームワークを提案する。
モデル重み付けへの直接的編集について検討する。この手法は、削除された情報が将来的な攻撃によって抽出されないことを保証すべきである。
我々のホワイトボックスやブラックボックス攻撃は、編集されたモデルの38%から「削除された」情報を復元できるので、ROMEのような最先端のモデル編集方法でさえ、GPT-Jのようなモデルから事実情報を真に消し去るのに苦労している。
論文 参考訳(メタデータ) (2023-09-29T17:12:43Z) - Hiding Visual Information via Obfuscating Adversarial Perturbations [47.315523613407244]
本稿では,データの視覚的プライバシを保護するために,敵対的な視覚情報隠蔽手法を提案する。
具体的には、データの視覚情報を隠蔽する難読化対向摂動を生成する。
認識・分類タスクの実験結果から,提案手法が視覚情報を効果的に隠蔽できることが示唆された。
論文 参考訳(メタデータ) (2022-09-30T08:23:26Z) - Informing Users: Effects of Notification Properties and User
Characteristics on Sharing Attitudes [5.371337604556311]
ソーシャルネットワーク上の情報共有は、ユビキタスで直感的で、時には偶然である。
人々は、評判の損傷など、開示の潜在的なネガティブな結果に気づいていないかもしれない。
我々は、情報共有決定をどう支援し、通知による潜在的な結果に関連付けるかを検討する。
論文 参考訳(メタデータ) (2022-07-05T20:39:02Z) - Meaningful Context, a Red Flag, or Both? Users' Preferences for Enhanced
Misinformation Warnings on Twitter [6.748225062396441]
本研究では,ソーシャルメディア上での誤情報のソフトモデレーションにおけるユーザ調整による改善を提案する。
私たちは337人の参加者によるユーザビリティ調査で、Twitterのオリジナルの警告タグを使ってA/B評価を実行しました。
参加者の大多数は、誤報の認識と回避に苦慮した。
論文 参考訳(メタデータ) (2022-05-02T22:47:49Z) - PROVENANCE: An Intermediary-Free Solution for Digital Content
Verification [3.82273842587301]
Provenanceは、ユーザーが見ているコンテンツが誤情報や偽情報である可能性があることをユーザーに警告する。
また、メディアリテラシーの向上も図られている。
人間の専門家による評価を必要とする類似のプラグインとは異なり、プロヴァンスの最先端技術は人間の入力を必要としない。
論文 参考訳(メタデータ) (2021-11-16T21:42:23Z) - Characterizing User Susceptibility to COVID-19 Misinformation on Twitter [40.0762273487125]
本研究は、パンデミックのオンライン誤報に弱い人口を構成する人々への回答を試みる。
我々は、ソーシャルボットから、新型コロナウイルス関連の誤情報に関するさまざまなレベルのエンゲージメントを持つ人間まで、さまざまなタイプのユーザーを区別する。
次に、新型コロナウイルスの誤情報に対する感受性と相関する、ユーザのオンライン機能と状況予測を識別する。
論文 参考訳(メタデータ) (2021-09-20T13:31:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。