論文の概要: I Blame Apple in Part for My False Expectations: An Autoethnographic Study of Apple's Lockdown Mode in iOS
- arxiv url: http://arxiv.org/abs/2411.13249v1
- Date: Wed, 20 Nov 2024 12:08:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-21 16:11:26.264200
- Title: I Blame Apple in Part for My False Expectations: An Autoethnographic Study of Apple's Lockdown Mode in iOS
- Title(参考訳): iOSのロックダウンモードをオートエスノグラフィーで調べてみた
- Authors: Benedikt Mader, Christian Eichenmüller, Gaston Pugliese, Dennis Eckhardt, Zinaida Benenson,
- Abstract要約: 本研究は,3ヶ月の自己エスノグラフィー研究に基づくロックダウンモードの学術的研究である。
ユーザエクスペリエンスの微妙な理解を得て、より大きなユーザグループに外挿できる問題を特定しました。
私たちは、Appleのロックダウンモードによる父性的なセキュリティアプローチが有害であると考えている。
- 参考スコア(独自算出の注目度): 6.46853630952776
- License:
- Abstract: Lockdown Mode was introduced in 2022 as a hardening setting for Apple's operating systems, designed to strengthen the protection against ``some of the most sophisticated digital threats''. However, Apple never explained these threats further. We present the first academic exploration of Lockdown Mode based on a 3-month autoethnographic study. We obtained a nuanced understanding of user experience and identified issues that can be extrapolated to larger user groups. The lack of information from Apple about the underlying threat model and details on affected features may hinder adequate assessment of Lockdown Mode, making informed decisions on its use challenging. Besides encountering undocumented restrictions, we also experienced both too much and too little visibility of protection during Lockdown Mode use. Finally, we deem the paternalistic security approach by Apple's Lockdown Mode harmful, because without detailed knowledge about technical capabilities and boundaries, at-risk users may be lulled into a false sense of security.
- Abstract(参考訳): ロックダウンモードは、2022年に「最も洗練されたデジタル脅威のいくつか」に対する保護を強化するために設計された、アップルのオペレーティングシステムのハードニング設定として導入された。
しかし、Appleはこれらの脅威をこれ以上説明しなかった。
本研究は,3ヶ月の自己エスノグラフィー研究に基づくロックダウンモードの学術的研究である。
ユーザエクスペリエンスの微妙な理解を得て、より大きなユーザグループに外挿できる問題を特定しました。
脅威モデルと影響を受ける機能の詳細に関するAppleからの情報がないことは、ロックダウンモードの適切な評価を妨げる可能性があり、その使用に関する決定を困難にしている。
文書化されていない制限に遭遇しただけでなく、ロックダウンモードの使用時に保護の可視性もあまりにも少なかったのです。
最後に、Appleのロックダウンモードによる父性的なセキュリティアプローチが有害であると考えます。
関連論文リスト
- Layer-Level Self-Exposure and Patch: Affirmative Token Mitigation for Jailbreak Attack Defense [55.77152277982117]
私たちは、jailbreak攻撃から防御するために設計された方法であるLayer-AdvPatcherを紹介します。
私たちは、自己拡張データセットを通じて、大規模言語モデル内の特定のレイヤにパッチを適用するために、未学習の戦略を使用します。
我々の枠組みは、脱獄攻撃の有害性と攻撃の成功率を減らす。
論文 参考訳(メタデータ) (2025-01-05T19:06:03Z) - Shaping the Safety Boundaries: Understanding and Defending Against Jailbreaks in Large Language Models [59.25318174362368]
大規模言語モデル(LLM)におけるジェイルブレークは、LLMを騙して有害なテキストを生成するというセキュリティ上の問題である。
我々は7つの異なるジェイルブレイク法を詳細に分析し、不一致が不十分な観察サンプルから生じることを確認した。
安全境界内でのアクティベーションを適応的に制限する「textbfActivation Boundary Defense (ABD)」という新しい防衛法を提案する。
論文 参考訳(メタデータ) (2024-12-22T14:18:39Z) - WildTeaming at Scale: From In-the-Wild Jailbreaks to (Adversarially) Safer Language Models [66.34505141027624]
我々は、WildTeamingを紹介した。これは自動LLM安全リチームフレームワークで、Wild-Chatbotインタラクションをマイニングし、新しいジェイルブレイク戦術の5.7Kのユニークなクラスタを発見する。
WildTeamingは、未確認のフロンティアLSMの脆弱性を明らかにし、最大4.6倍の多様性と敵の攻撃に成功した。
論文 参考訳(メタデータ) (2024-06-26T17:31:22Z) - Eraser: Jailbreaking Defense in Large Language Models via Unlearning Harmful Knowledge [18.729599602390874]
脱獄攻撃により、Large Language Models (LLM) は保護をバイパスし、有害なコンテンツを生成することができる。
既存のジェイルブレイク防御手法は、有害な知識がモデルの中に存在するという根本的な問題に対処できなかった。
本稿では,有害な知識の学習,一般知識の保持,安全性の維持という3つの目標を主目的として,エラザーと呼ばれる新しい防衛手法を提案する。
論文 参考訳(メタデータ) (2024-04-08T21:26:22Z) - Can Sensitive Information Be Deleted From LLMs? Objectives for Defending
Against Extraction Attacks [73.53327403684676]
本稿では,モデル重みから直接センシティブな情報を削除する作業を研究するためのアタック・アンド・ディフェンスフレームワークを提案する。
モデル重み付けへの直接的編集について検討する。この手法は、削除された情報が将来的な攻撃によって抽出されないことを保証すべきである。
我々のホワイトボックスやブラックボックス攻撃は、編集されたモデルの38%から「削除された」情報を復元できるので、ROMEのような最先端のモデル編集方法でさえ、GPT-Jのようなモデルから事実情報を真に消し去るのに苦労している。
論文 参考訳(メタデータ) (2023-09-29T17:12:43Z) - Jailbroken: How Does LLM Safety Training Fail? [92.8748773632051]
ChatGPTの初期リリースに対する"jailbreak"攻撃は、望ましくない振る舞いを引き起こす。
このような攻撃がなぜ成功し、どのように発生できるかを考察する。
障害モードを利用した新たな攻撃は、安全でない要求の収集において、すべてのプロンプトで成功します。
論文 参考訳(メタデータ) (2023-07-05T17:58:10Z) - AirGuard -- Protecting Android Users From Stalking Attacks By Apple Find
My Devices [78.08346367878578]
私たちは、iOSにおけるAppleのトラッキング保護をリバースエンジニアリングし、ストーキング検出に関する機能について議論します。
AirGuard」をデザインし、Appleの追跡デバイスによる悪用を防ぐためにAndroidアプリとしてリリースします。
論文 参考訳(メタデータ) (2022-02-23T22:31:28Z) - A Non-Intrusive Machine Learning Solution for Malware Detection and Data
Theft Classification in Smartphones [0.06999740786886537]
モバイルマルウェア攻撃に成功すれば、ユーザーの位置情報、写真、銀行情報さえ盗むことができる。
スマートフォンのマルウェア侵入を検出するだけでなく、盗まれたデータを識別して評価し、回復を助け、将来の攻撃を防ぐ必要があります。
マルウェアの侵入を検出するだけでなく、監視対象のアプリで盗まれたデータの種類を特定するために、アクセス可能な非侵入型機械学習ソリューションを提案します。
論文 参考訳(メタデータ) (2021-02-12T13:31:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。