論文の概要: I Blame Apple in Part for My False Expectations: An Autoethnographic Study of Apple's Lockdown Mode in iOS
- arxiv url: http://arxiv.org/abs/2411.13249v1
- Date: Wed, 20 Nov 2024 12:08:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-21 16:11:26.264200
- Title: I Blame Apple in Part for My False Expectations: An Autoethnographic Study of Apple's Lockdown Mode in iOS
- Title(参考訳): iOSのロックダウンモードをオートエスノグラフィーで調べてみた
- Authors: Benedikt Mader, Christian Eichenmüller, Gaston Pugliese, Dennis Eckhardt, Zinaida Benenson,
- Abstract要約: 本研究は,3ヶ月の自己エスノグラフィー研究に基づくロックダウンモードの学術的研究である。
ユーザエクスペリエンスの微妙な理解を得て、より大きなユーザグループに外挿できる問題を特定しました。
私たちは、Appleのロックダウンモードによる父性的なセキュリティアプローチが有害であると考えている。
- 参考スコア(独自算出の注目度): 6.46853630952776
- License:
- Abstract: Lockdown Mode was introduced in 2022 as a hardening setting for Apple's operating systems, designed to strengthen the protection against ``some of the most sophisticated digital threats''. However, Apple never explained these threats further. We present the first academic exploration of Lockdown Mode based on a 3-month autoethnographic study. We obtained a nuanced understanding of user experience and identified issues that can be extrapolated to larger user groups. The lack of information from Apple about the underlying threat model and details on affected features may hinder adequate assessment of Lockdown Mode, making informed decisions on its use challenging. Besides encountering undocumented restrictions, we also experienced both too much and too little visibility of protection during Lockdown Mode use. Finally, we deem the paternalistic security approach by Apple's Lockdown Mode harmful, because without detailed knowledge about technical capabilities and boundaries, at-risk users may be lulled into a false sense of security.
- Abstract(参考訳): ロックダウンモードは、2022年に「最も洗練されたデジタル脅威のいくつか」に対する保護を強化するために設計された、アップルのオペレーティングシステムのハードニング設定として導入された。
しかし、Appleはこれらの脅威をこれ以上説明しなかった。
本研究は,3ヶ月の自己エスノグラフィー研究に基づくロックダウンモードの学術的研究である。
ユーザエクスペリエンスの微妙な理解を得て、より大きなユーザグループに外挿できる問題を特定しました。
脅威モデルと影響を受ける機能の詳細に関するAppleからの情報がないことは、ロックダウンモードの適切な評価を妨げる可能性があり、その使用に関する決定を困難にしている。
文書化されていない制限に遭遇しただけでなく、ロックダウンモードの使用時に保護の可視性もあまりにも少なかったのです。
最後に、Appleのロックダウンモードによる父性的なセキュリティアプローチが有害であると考えます。
関連論文リスト
- WildTeaming at Scale: From In-the-Wild Jailbreaks to (Adversarially) Safer Language Models [66.34505141027624]
我々は、WildTeamingを紹介した。これは自動LLM安全リチームフレームワークで、Wild-Chatbotインタラクションをマイニングし、新しいジェイルブレイク戦術の5.7Kのユニークなクラスタを発見する。
WildTeamingは、未確認のフロンティアLSMの脆弱性を明らかにし、最大4.6倍の多様性と敵の攻撃に成功した。
論文 参考訳(メタデータ) (2024-06-26T17:31:22Z) - Eraser: Jailbreaking Defense in Large Language Models via Unlearning Harmful Knowledge [18.729599602390874]
脱獄攻撃により、Large Language Models (LLM) は保護をバイパスし、有害なコンテンツを生成することができる。
既存のジェイルブレイク防御手法は、有害な知識がモデルの中に存在するという根本的な問題に対処できなかった。
本稿では,有害な知識の学習,一般知識の保持,安全性の維持という3つの目標を主目的として,エラザーと呼ばれる新しい防衛手法を提案する。
論文 参考訳(メタデータ) (2024-04-08T21:26:22Z) - Foot In The Door: Understanding Large Language Model Jailbreaking via
Cognitive Psychology [12.584928288798658]
本研究では,大規模言語モデル(LLM)の内在的意思決定論理に関する心理学的視点を構築する。
フットイン・ザ・ドア(FITD)技術に基づく自動ブラックボックスジェイルブレイク手法を提案する。
論文 参考訳(メタデータ) (2024-02-24T02:27:55Z) - Cognitive Overload: Jailbreaking Large Language Models with Overloaded
Logical Thinking [60.78524314357671]
本研究では,大規模言語モデル(LLM)の認知的構造とプロセスをターゲットにした新しいジェイルブレイク攻撃のカテゴリについて検討する。
提案する認知的オーバーロードはブラックボックス攻撃であり、モデルアーキテクチャやモデルウェイトへのアクセスの知識は不要である。
AdvBenchとMasterKeyで実施された実験では、人気のあるオープンソースモデルであるLlama 2とプロプライエタリモデルであるChatGPTの両方を含む様々なLLMが、認知的オーバーロードによって妥協可能であることが明らかになった。
論文 参考訳(メタデータ) (2023-11-16T11:52:22Z) - AutoDAN: Interpretable Gradient-Based Adversarial Attacks on Large
Language Models [55.748851471119906]
LLM(Large Language Models)の安全性の整合性は、手動のジェイルブレイク攻撃や(自動)敵攻撃によって損なわれる可能性がある。
最近の研究は、これらの攻撃に対する防御が可能であることを示唆している。敵攻撃は無限だが読めないジベリッシュプロンプトを生成し、難易度に基づくフィルタによって検出できる。
両攻撃の強度をマージする,解釈可能な勾配に基づく対向攻撃であるAutoDANを導入する。
論文 参考訳(メタデータ) (2023-10-23T17:46:07Z) - Can Sensitive Information Be Deleted From LLMs? Objectives for Defending
Against Extraction Attacks [73.53327403684676]
本稿では,モデル重みから直接センシティブな情報を削除する作業を研究するためのアタック・アンド・ディフェンスフレームワークを提案する。
モデル重み付けへの直接的編集について検討する。この手法は、削除された情報が将来的な攻撃によって抽出されないことを保証すべきである。
我々のホワイトボックスやブラックボックス攻撃は、編集されたモデルの38%から「削除された」情報を復元できるので、ROMEのような最先端のモデル編集方法でさえ、GPT-Jのようなモデルから事実情報を真に消し去るのに苦労している。
論文 参考訳(メタデータ) (2023-09-29T17:12:43Z) - Jailbroken: How Does LLM Safety Training Fail? [92.8748773632051]
ChatGPTの初期リリースに対する"jailbreak"攻撃は、望ましくない振る舞いを引き起こす。
このような攻撃がなぜ成功し、どのように発生できるかを考察する。
障害モードを利用した新たな攻撃は、安全でない要求の収集において、すべてのプロンプトで成功します。
論文 参考訳(メタデータ) (2023-07-05T17:58:10Z) - AirGuard -- Protecting Android Users From Stalking Attacks By Apple Find
My Devices [78.08346367878578]
私たちは、iOSにおけるAppleのトラッキング保護をリバースエンジニアリングし、ストーキング検出に関する機能について議論します。
AirGuard」をデザインし、Appleの追跡デバイスによる悪用を防ぐためにAndroidアプリとしてリリースします。
論文 参考訳(メタデータ) (2022-02-23T22:31:28Z) - A Non-Intrusive Machine Learning Solution for Malware Detection and Data
Theft Classification in Smartphones [0.06999740786886537]
モバイルマルウェア攻撃に成功すれば、ユーザーの位置情報、写真、銀行情報さえ盗むことができる。
スマートフォンのマルウェア侵入を検出するだけでなく、盗まれたデータを識別して評価し、回復を助け、将来の攻撃を防ぐ必要があります。
マルウェアの侵入を検出するだけでなく、監視対象のアプリで盗まれたデータの種類を特定するために、アクセス可能な非侵入型機械学習ソリューションを提案します。
論文 参考訳(メタデータ) (2021-02-12T13:31:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。