論文の概要: gh0stEdit: Exploiting Layer-Based Access Vulnerability Within Docker Container Images
- arxiv url: http://arxiv.org/abs/2506.08218v1
- Date: Mon, 09 Jun 2025 20:38:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:40.752298
- Title: gh0stEdit: Exploiting Layer-Based Access Vulnerability Within Docker Container Images
- Title(参考訳): gh0stEdit:Dockerコンテナイメージ内のレイヤベースのアクセス脆弱性の爆発
- Authors: Alan Mills, Jonathan White, Phil Legg,
- Abstract要約: Dockerイメージの整合性を損なう脆弱性であるgh0stEditを紹介します。
gh0stEditは、イメージ履歴に表示されない方法で、攻撃者が悪意を持ってDockerイメージを編集することを可能にする。
この脆弱性に対する2つのユースケーススタディを示し、静的スキャンツールや動的スキャニングツールによって拾われない方法で、gh0stEditが画像に毒を与える方法を示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Containerisation is a popular deployment process for application-level virtualisation using a layer-based approach. Docker is a leading provider of containerisation, and through the Docker Hub, users can supply Docker images for sharing and re-purposing popular software application containers. Using a combination of in-built inspection commands, publicly displayed image layer content, and static image scanning, Docker images are designed to ensure end users can clearly assess the content of the image before running them. In this paper we present \textbf{\textit{gh0stEdit}}, a vulnerability that fundamentally undermines the integrity of Docker images and subverts the assumed trust and transparency they utilise. The use of gh0stEdit allows an attacker to maliciously edit Docker images, in a way that is not shown within the image history, hierarchy or commands. This attack can also be carried out against signed images (Docker Content Trust) without invalidating the image signature. We present two use case studies for this vulnerability, and showcase how gh0stEdit is able to poison an image in a way that is not picked up through static or dynamic scanning tools. Our attack case studies highlight the issues in the current approach to Docker image security and trust, and expose an attack method which could potentially be exploited in the wild without being detected. To the best of our knowledge we are the first to provide detailed discussion on the exploit of this vulnerability.
- Abstract(参考訳): コンテナ化は、レイヤベースのアプローチを使用したアプリケーションレベルの仮想化のための一般的なデプロイメントプロセスである。
Dockerはコンテナ化の主要なプロバイダであり、Docker Hubを通じてユーザは、人気のあるソフトウェアアプリケーションコンテナの共有と再購入のためにDockerイメージを供給できる。
ビルド内インスペクションコマンド、公開されたイメージ層の内容、静的イメージスキャンの組み合わせを使用して、Dockerイメージは、実行前に画像の内容を明確に評価できるように設計されている。
本稿では,Dockerイメージの整合性を根本的に損なう脆弱性である‘textbf{\textit{gh0stEdit}}を提示する。
gh0stEditを使用することで、攻撃者はイメージ履歴や階層、コマンドに表示されない方法で、悪意のあるDockerイメージを編集することができる。
この攻撃は、イメージシグネチャを無効にすることなく、署名されたイメージ(Docker Content Trust)に対して実行することもできる。
この脆弱性に対する2つのユースケーススタディを示し、静的スキャンツールや動的スキャニングツールによって拾われない方法で、gh0stEditが画像に毒を与える方法を示している。
当社のアタックケーススタディでは,Dockerイメージのセキュリティと信頼性に対する現在のアプローチの問題点を取り上げています。
私たちの知る限りでは、この脆弱性の悪用について、私たちは初めて詳細な議論をしました。
関連論文リスト
- Toward Automated Test Generation for Dockerfiles Based on Analysis of Docker Image Layers [1.1879716317856948]
Dockerイメージを構築するプロセスは、Dockerfileと呼ばれるテキストファイルで定義されている。
Dockerfileは、Dockerイメージのビルド方法の指示を含む、一種のソースコードと見なすことができる。
本稿では,Dockerfileの自動テスト生成手法を提案する。
論文 参考訳(メタデータ) (2025-04-25T08:02:46Z) - Clean Image May be Dangerous: Data Poisoning Attacks Against Deep Hashing [71.30876587855867]
クリーンなクエリ画像でさえ危険であり、望ましくない画像や違法な画像などの悪意のあるターゲット検索結果が誘導される。
具体的には,まず,対象の深部ハッシュモデルの挙動をシミュレートするために代理モデルを訓練する。
そこで, 毒性画像を生成するため, 厳密な勾配マッチング戦略を提案する。
論文 参考訳(メタデータ) (2025-03-27T07:54:27Z) - SEAL: Semantic Aware Image Watermarking [26.606008778795193]
本稿では,生成した画像のセマンティック情報を透かしに直接埋め込む新しい透かし手法を提案する。
キーパターンは、局所性に敏感なハッシュを用いて画像のセマンティック埋め込みから推測することができる。
以上の結果から,画像生成モデルによるリスクを軽減できる可能性が示唆された。
論文 参考訳(メタデータ) (2025-03-15T15:29:05Z) - Perceptive self-supervised learning network for noisy image watermark
removal [59.440951785128995]
雑音の多い画像透かし除去のための知覚的自己教師型学習ネットワーク(PSLNet)を提案する。
提案手法は,雑音の多い画像透かし除去のための一般的な畳み込みニューラルネットワーク(CNN)と比較して非常に効果的である。
論文 参考訳(メタデータ) (2024-03-04T16:59:43Z) - IMPRESS: Evaluating the Resilience of Imperceptible Perturbations
Against Unauthorized Data Usage in Diffusion-Based Generative AI [52.90082445349903]
拡散ベースの画像生成モデルは、アーティストのスタイルを模倣するアートイメージを作成したり、偽のコンテンツのためにオリジナルの画像を悪意を持って編集することができる。
知覚不能な摂動を追加することによって、元のイメージをそのような不正なデータ使用から保護する試みがいくつかなされている。
本研究では, IMPRESS という浄化摂動プラットフォームを導入し, 非受容性摂動の有効性を保護策として評価する。
論文 参考訳(メタデータ) (2023-10-30T03:33:41Z) - DIAGNOSIS: Detecting Unauthorized Data Usages in Text-to-image Diffusion Models [79.71665540122498]
保護されたデータセットにインジェクトされたコンテンツを配置することで、不正なデータ利用を検出する手法を提案する。
具体的には、ステルス画像ワープ機能を用いて、これらの画像にユニークな内容を追加することにより、保護された画像を修正する。
このモデルが注入されたコンテンツを記憶したかどうかを解析することにより、不正に不正に使用したモデルを検出することができる。
論文 参考訳(メタデータ) (2023-07-06T16:27:39Z) - DRIVE: Dockerfile Rule Mining and Violation Detection [6.510749313511299]
DockerfileはDockerイメージを構築するための一連の命令を定義し、コンテナ化されたアプリケーションをサポートするためにインスタンス化することができる。
最近の研究は、Dockerfileのかなりの品質問題を明らかにしている。
我々は、暗黙のルールをマイニングし、Dockerfileでそのようなルールの潜在的な違反を検出する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-12-12T01:15:30Z) - Breaking certified defenses: Semantic adversarial examples with spoofed
robustness certificates [57.52763961195292]
本稿では,分類器のラベル付け機能だけでなく,証明書生成機能を利用した新たな攻撃を提案する。
提案手法は, 画像がクラス境界から遠ざかる大きな摂動を, 対向例の不受容性を保ちながら適用する。
論文 参考訳(メタデータ) (2020-03-19T17:59:44Z) - Privacy-Preserving Image Sharing via Sparsifying Layers on Convolutional
Groups [11.955557264002204]
本稿では,大規模なセットアップにおいて,プライバシを意識した画像共有の問題に対処する実践的な枠組みを提案する。
画像は、一方から、表現は、プライバシー保護の膨大なコストを払わずに、パブリックドメインに格納されるようにエンコードします。
認証されたユーザは、簡単に安全に維持できる非常にコンパクトなキーが提供される。
これは、対応するアクセスグラインド画像の曖昧さと忠実な再構築に使用できる。
論文 参考訳(メタデータ) (2020-02-04T18:54:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。