論文の概要: The Invisible Game on the Internet: A Case Study of Decoding Deceptive Patterns
- arxiv url: http://arxiv.org/abs/2402.03569v1
- Date: Mon, 5 Feb 2024 22:42:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 07:48:02.414891
- Title: The Invisible Game on the Internet: A Case Study of Decoding Deceptive Patterns
- Title(参考訳): インターネット上の見えないゲーム : 認識パターンの復号化を事例として
- Authors: Zewei Shi, Ruoxi Sun, Jieshan Chen, Jiamou Sun, Minhui Xue,
- Abstract要約: 認知パターンは、ユーザーを操作するためのデジタルプラットフォームに埋め込まれたデザインプラクティスである。
検出ツールの進歩にもかかわらず、偽りのパターンのリスクを評価する際に大きなギャップが存在する。
- 参考スコア(独自算出の注目度): 19.55209153462331
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deceptive patterns are design practices embedded in digital platforms to manipulate users, representing a widespread and long-standing issue in the web and mobile software development industry. Legislative actions highlight the urgency of globally regulating deceptive patterns. However, despite advancements in detection tools, a significant gap exists in assessing deceptive pattern risks. In this study, we introduce a comprehensive approach involving the interactions between the Adversary, Watchdog (e.g., detection tools), and Challengers (e.g., users) to formalize and decode deceptive pattern threats. Based on this, we propose a quantitative risk assessment system. Representative cases are analyzed to showcase the practicability of the proposed risk scoring system, emphasizing the importance of involving human factors in deceptive pattern risk assessment.
- Abstract(参考訳): 認知的パターンは、ユーザを操作するためのデジタルプラットフォームに埋め込まれたデザインプラクティスであり、Webおよびモバイルソフトウェア開発業界において、広く長く続いている問題を表している。
法的行動は、世界規模で偽りのパターンを規制する緊急性を強調している。
しかし, 検出ツールの進歩にもかかわらず, 誤認パターンのリスクを評価する上で, 重大なギャップが存在する。
本研究では,認識パターンの脅威を形式化し,デコードするために,Adversary,Watchdog(e.g.,検出ツール),Challendar(e.g.,ユーザ)間のインタラクションを含む包括的アプローチを提案する。
そこで本研究では,定量的リスク評価システムを提案する。
提案するリスク評価システムの実践可能性を明らかにするために, パターン評価における人的要因の関与の重要性を強調した事例を代表例として分析した。
関連論文リスト
- Visually Analyze SHAP Plots to Diagnose Misclassifications in ML-based Intrusion Detection [0.3199881502576702]
侵入検知システム(IDS)は、警告を提供することで本質的に脅威を軽減することができる。
これらの脅威を検出するため、さまざまな機械学習(ML)モデルとディープラーニング(DL)モデルが提案されている。
本稿では、重なり合うSHAPプロットを用いた説明可能な人工知能(XAI)に基づく視覚分析手法を提案する。
論文 参考訳(メタデータ) (2024-11-04T23:08:34Z) - A Human-Centered Risk Evaluation of Biometric Systems Using Conjoint Analysis [0.6199770411242359]
本稿では, コンジョイント分析を用いて, 監視カメラなどのリスク要因が攻撃者のモチベーションに与える影響を定量化するために, 新たな人間中心型リスク評価フレームワークを提案する。
本フレームワークは、False Acceptance Rate(FAR)とアタック確率を組み込んだリスク値を算出し、ユースケース間の総合的な比較を可能にする。
論文 参考訳(メタデータ) (2024-09-17T14:18:21Z) - A Survey and Evaluation of Adversarial Attacks for Object Detection [11.48212060875543]
ディープラーニングモデルは、様々なコンピュータビジョンタスクにおいて優れているが、誤った予測につながる入力データの逆例-サブトル摂動の影響を受けやすい。
この脆弱性は、自動運転車、セキュリティ監視、航空機の健康監視など、安全に重要なアプリケーションに重大なリスクをもたらす。
論文 参考訳(メタデータ) (2024-08-04T05:22:08Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - On the Security Risks of Knowledge Graph Reasoning [71.64027889145261]
我々は、敵の目標、知識、攻撃ベクトルに応じて、KGRに対するセキュリティ脅威を体系化する。
我々は、このような脅威をインスタンス化する新しいタイプの攻撃であるROARを提示する。
ROARに対する潜在的な対策として,潜在的に有毒な知識のフィルタリングや,対向的な拡張クエリによるトレーニングについて検討する。
論文 参考訳(メタデータ) (2023-05-03T18:47:42Z) - Against Algorithmic Exploitation of Human Vulnerabilities [2.6918074738262194]
我々は、機械学習モデルが故意に脆弱性をモデル化することを懸念している。
一般的な脆弱性を記述し、アルゴリズムによる意思決定においてそれらが役割を担っている可能性を示す。
本稿では,脆弱性モデリングの可能性を検出する手法の一連の要件を提案する。
論文 参考訳(メタデータ) (2023-01-12T13:15:24Z) - Adversarial Machine Learning In Network Intrusion Detection Domain: A
Systematic Review [0.0]
ディープラーニングモデルは、誤った分類決定を行うためにモデルを誤解させる可能性のあるデータインスタンスに対して脆弱であることがわかった。
本調査では,ネットワーク侵入検出分野における敵機械学習のさまざまな側面を利用した研究について検討する。
論文 参考訳(メタデータ) (2021-12-06T19:10:23Z) - Exploring Robustness of Unsupervised Domain Adaptation in Semantic
Segmentation [74.05906222376608]
クリーンな画像とそれらの逆の例との一致を、出力空間における対照的な損失によって最大化する、逆向きの自己スーパービジョンUDA(ASSUDA)を提案する。
i) セマンティックセグメンテーションにおけるUDA手法のロバスト性は未解明のままであり, (ii) 一般的に自己スーパービジョン(回転やジグソーなど) は分類や認識などのイメージタスクに有効であるが, セグメンテーションタスクの識別的表現を学習する重要な監視信号の提供には失敗している。
論文 参考訳(メタデータ) (2021-05-23T01:50:44Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。