論文の概要: Mind-proofing Your Phone: Navigating the Digital Minefield with
GreaseTerminator
- arxiv url: http://arxiv.org/abs/2112.10699v1
- Date: Mon, 20 Dec 2021 17:35:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-21 19:22:42.938119
- Title: Mind-proofing Your Phone: Navigating the Digital Minefield with
GreaseTerminator
- Title(参考訳): スマホのマインド保護:グリースターミネーターでデジタルマイニングフィールドをナビゲート
- Authors: Siddhartha Datta, Konrad Kollnig, Nigel Shadbolt
- Abstract要約: この研究はGreaseTerminatorを導入し、研究者がエンドユーザによるデジタル害に対する介入を開発し、デプロイし、テストできるようにする。
我々は介入開発と展開の容易さと、GreaseTerminatorでカバーされる可能性のある幅広い害を実証する。
- 参考スコア(独自算出の注目度): 6.47425225935854
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Digital harms are widespread in the mobile ecosystem. As these devices gain
ever more prominence in our daily lives, so too increases the potential for
malicious attacks against individuals. The last line of defense against a range
of digital harms - including digital distraction, political polarisation
through hate speech, and children being exposed to damaging material - is the
user interface. This work introduces GreaseTerminator to enable researchers to
develop, deploy, and test interventions against these harms with end-users. We
demonstrate the ease of intervention development and deployment, as well as the
broad range of harms potentially covered with GreaseTerminator in five in-depth
case studies.
- Abstract(参考訳): デジタル害はモバイルエコシステムに広まっている。
これらのデバイスが私たちの日常生活でますます注目されるにつれて、個人に対する悪意のある攻撃の可能性も高まる。
デジタルの混乱、ヘイトスピーチによる政治的偏見、有害物質に晒されている子供たちなど、様々なデジタル被害に対する最後の防衛線がユーザーインターフェースである。
この研究は、研究者がエンドユーザとのこれらの害に対する介入を開発、デプロイ、テストできるgraseterminatorを導入している。
我々は,5つのケーススタディにおいて,介入開発と展開の容易さに加えて,GreaseTerminatorでカバーされる可能性のある幅広い害を実証する。
関連論文リスト
- Visually Adversarial Attacks and Defenses in the Physical World: A
Survey [27.40548512511512]
コンピュータビジョンにおける現在の敵攻撃は、それぞれの攻撃形態に応じてデジタル攻撃と物理的攻撃に分けられる。
本稿では,コンピュータビジョンにおける現在の身体的敵意攻撃と身体的敵意防御に対する調査を要約する。
論文 参考訳(メタデータ) (2022-11-03T09:28:45Z) - Physical Adversarial Attack meets Computer Vision: A Decade Survey [57.46379460600939]
本稿では,身体的敵意攻撃の概要を概観する。
本研究は,身体的敵意攻撃の性能を体系的に評価する第一歩を踏み出した。
提案する評価基準であるhiPAAは6つの視点から構成される。
論文 参考訳(メタデータ) (2022-09-30T01:59:53Z) - GreaseVision: Rewriting the Rules of the Interface [10.65724536340206]
GreaseVisionは、エンドユーザがソフトウェアの害に対する介入を共同で開発することを可能にする新しいフレームワークである。
我々の貢献により、研究者は大規模に害や介入の分布を研究できる。
論文 参考訳(メタデータ) (2022-04-07T20:50:12Z) - Deep Learning Algorithm for Threat Detection in Hackers Forum (Deep Web) [0.0]
深層学習アルゴリズムLong Short-Term Memory (LSTM) を用いたサイバー脅威検出のための新しい手法を提案する。
当社のモデルは,サイバー攻撃前に,デジタル通信の確保や脆弱性の発見において,組織によって容易に展開できる。
論文 参考訳(メタデータ) (2022-02-03T07:49:44Z) - Initiative Defense against Facial Manipulation [82.96864888025797]
本稿では,悪意あるユーザによって制御される顔操作モデルの性能を低下させるための,イニシアティブ・ディフェンスの新しい枠組みを提案する。
まず、サロゲートモデルを用いてターゲット操作モデルを模倣し、次に毒の摂動発生器を考案し、所望の毒を得る。
論文 参考訳(メタデータ) (2021-12-19T09:42:28Z) - False Data Injection Threats in Active Distribution Systems: A
Comprehensive Survey [1.9084046244608193]
いくつかの最先端技術の統合により、セキュリティとプライバシの脆弱性がいくつか導入されている。
最近の研究動向は、False Data Injection(FDI)攻撃がスマートグリッドパラダイム全体で最も悪意のあるサイバー脅威の1つになっていることを示している。
論文 参考訳(メタデータ) (2021-11-28T22:25:15Z) - Proceedings - AI/ML for Cybersecurity: Challenges, Solutions, and Novel
Ideas at SIAM Data Mining 2021 [6.647584840410018]
悪意あるサイバー活動はユビキタスであり、その有害な影響は社会に劇的かつしばしば不可逆的な影響を及ぼす。
この分野の課題は、コンピュータビジョンのような他の領域にAIを適用することに関連する問題とは大きく異なる。
これらの課題にもかかわらず、機械学習はこの分野に適用され、検出の分野で成功を収めている。
商業部門では、ML強化機能をサービスとして提供しています。
論文 参考訳(メタデータ) (2021-04-27T17:35:31Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z) - Adversarial Machine Learning Attacks and Defense Methods in the Cyber
Security Domain [58.30296637276011]
本稿では,機械学習技術に基づくセキュリティソリューションに対する敵攻撃に関する最新の研究を要約する。
サイバーセキュリティドメインでエンドツーエンドの敵攻撃を実装するという、ユニークな課題を議論するのは、これが初めてである。
論文 参考訳(メタデータ) (2020-07-05T18:22:40Z) - Physically Realizable Adversarial Examples for LiDAR Object Detection [72.0017682322147]
本稿では,LiDAR検出器を騙すために,汎用な3次元対向物体を生成する手法を提案する。
特に,LiDAR検出器から車両を完全に隠蔽するために,車両の屋根上に対向物体を配置し,その成功率は80%であることを示した。
これは、限られたトレーニングデータから見知らぬ条件下での、より安全な自動運転への一歩だ。
論文 参考訳(メタデータ) (2020-04-01T16:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。