論文の概要: One Video to Steal Them All: 3D-Printing IP Theft through Optical Side-Channels
- arxiv url: http://arxiv.org/abs/2506.21897v1
- Date: Fri, 27 Jun 2025 04:34:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-30 21:12:23.082832
- Title: One Video to Steal Them All: 3D-Printing IP Theft through Optical Side-Channels
- Title(参考訳): 3DプリンティングのIP盗難を光学的サイドチェンネルで処理する動画
- Authors: Twisha Chattopadhyay, Fabricio Ceschin, Marco E. Garza, Dymytriy Zyunkin, Animesh Chhotaray, Aaron P. Stebner, Saman Zonouz, Raheem Beyah,
- Abstract要約: 本研究では,3Dプリンティングプロセスの映像記録にアクセスできる敵が,基礎となる3Dプリンティング命令をリバースエンジニアリングできることを示す。
本モデルでは,印刷工程中のプリンタノズルの動きを追跡し,対応する軌道をGコードにマッピングする。
フィードレートやエクストルージョンレートなどの正しいパラメータを特定し、知的財産の盗難を成功させる。
- 参考スコア(独自算出の注目度): 6.082508741253127
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The 3D printing industry is rapidly growing and increasingly adopted across various sectors including manufacturing, healthcare, and defense. However, the operational setup often involves hazardous environments, necessitating remote monitoring through cameras and other sensors, which opens the door to cyber-based attacks. In this paper, we show that an adversary with access to video recordings of the 3D printing process can reverse engineer the underlying 3D print instructions. Our model tracks the printer nozzle movements during the printing process and maps the corresponding trajectory into G-code instructions. Further, it identifies the correct parameters such as feed rate and extrusion rate, enabling successful intellectual property theft. To validate this, we design an equivalence checker that quantitatively compares two sets of 3D print instructions, evaluating their similarity in producing objects alike in shape, external appearance, and internal structure. Unlike simple distance-based metrics such as normalized mean square error, our equivalence checker is both rotationally and translationally invariant, accounting for shifts in the base position of the reverse engineered instructions caused by different camera positions. Our model achieves an average accuracy of 90.87 percent and generates 30.20 percent fewer instructions compared to existing methods, which often produce faulty or inaccurate prints. Finally, we demonstrate a fully functional counterfeit object generated by reverse engineering 3D print instructions from video.
- Abstract(参考訳): 3Dプリンティング産業は急速に成長し、製造業、医療、防衛など様々な分野で採用されている。
しかし、この運用環境は、しばしば危険な環境を伴い、カメラやその他のセンサーを通してリモート監視を必要とし、サイバーベースの攻撃への扉を開く。
本稿では,3Dプリンティングプロセスの映像記録にアクセスできる敵が,基礎となる3Dプリンティング命令をリバースエンジニアリングできることを示す。
本モデルでは,印刷工程中のプリンタノズルの動きを追跡し,対応する軌道をGコードにマッピングする。
さらに、フィードレートやエクストルージョンレートなどの正しいパラメータを特定し、知的財産盗難の成功を可能にする。
これを検証するために,2組の3Dプリント命令を定量的に比較した等価チェッカーを設計し,形状,外観,内部構造などの類似性を評価する。
正規化平均二乗誤差のような単純な距離ベースの指標とは異なり、同値チェッカーは回転および変換不変であり、異なるカメラ位置による逆エンジニアリング命令のベース位置の変化を考慮に入れている。
我々のモデルは平均90.87パーセントの精度を達成し、既存の手法に比べて30.20%少ない命令を生成する。
最後に,ビデオからの3Dプリントインストラクションを逆エンジニアリングで生成した,完全機能的な偽造物について示す。
関連論文リスト
- Generating 3D-Consistent Videos from Unposed Internet Photos [68.944029293283]
カメラパラメータなどの3Dアノテーションを使わずに,スケーラブルな3D対応ビデオモデルをトレーニングする。
その結果,映像やマルチビューインターネット写真などの2次元データのみを用いて,シーンレベルの3D学習をスケールアップできることが示唆された。
論文 参考訳(メタデータ) (2024-11-20T18:58:31Z) - Practitioner Paper: Decoding Intellectual Property: Acoustic and Magnetic Side-channel Attack on a 3D Printer [3.0832643041058607]
本研究は,3Dプリンタ上でサイドチャネル攻撃を行うことにより,G符号の再構築の実現可能性を示す。
グラディエントブースト決定木を用いたモデルの訓練により, 軸運動, ステッパ, ノズル, ロータ速度の予測精度が向上した。
実世界の試験において本モデルを効果的に展開し, 平均テンディエンシエラー(MTE)を4.47%, 平易なGコード設計で達成する。
論文 参考訳(メタデータ) (2024-11-16T21:05:25Z) - LLM-3D Print: Large Language Models To Monitor and Control 3D Printing [6.349503549199403]
産業4.0は、デジタル化を推進し、添加性製造(AM)へのパラダイムシフトによって製造に革命をもたらした。
重要なAM技術であるFDMは、層間押出による最小限の材料廃棄物による、高度にカスタマイズされたコスト効率の高い製品の作成を可能にする。
本稿では,3Dプリンタとともに学習済みのLarge Language Models(LLM)を利用して,印刷欠陥の検出と対処を行うプロセス監視・制御フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-26T14:38:19Z) - Secure Information Embedding in Forensic 3D Fingerprinting [15.196378932114518]
SIDEは3Dプリンティングに適した新しいフィンガープリントフレームワークである。
SIDEは、セキュアな情報埋め込みと抽出の両方を提供することで、3Dプリントの敵対的課題に対処する。
論文 参考訳(メタデータ) (2024-03-07T22:03:46Z) - 3D Vision with Transformers: A Survey [114.86385193388439]
自然言語処理におけるトランスフォーマーアーキテクチャの成功は、コンピュータビジョン分野の注目を集めている。
本稿では,異なる3次元視覚タスクのための100以上のトランスフォーマー手法の体系的,徹底的なレビューを行う。
我々は3次元視覚におけるトランスフォーマー設計について議論し、様々な3次元表現でデータを処理できるようにする。
論文 参考訳(メタデータ) (2022-08-08T17:59:11Z) - Consistent 3D Hand Reconstruction in Video via self-supervised Learning [67.55449194046996]
本稿では,モノクロ映像から高精度で一貫した3Dハンドを再構築する手法を提案する。
検出された2次元手指キーポイントと画像テクスチャは、3次元手の形状とテクスチャに関する重要な手がかりを提供する。
自己監督型3Dハンド再構成モデルであるS2HAND$を提案する。
論文 参考訳(メタデータ) (2022-01-24T09:44:11Z) - Towards Smart Monitored AM: Open Source in-Situ Layer-wise 3D Printing
Image Anomaly Detection Using Histograms of Oriented Gradients and a
Physics-Based Rendering Engine [0.0]
本研究では,物理レンダリングエンジンであるBlenderで生成した理想的なプロセスのG符号による参照画像と静止単眼カメラからのプリント層画像を比較し,3次元印刷異常を検出するオープンソース手法を提案する。
局所画像領域の向き勾配(HOG)のヒストグラムの類似性を解析することにより,視覚偏差の認識を実現した。
本手法の実装は, 予備データを必要としないため, 部品の大量生産において, 同一形状の添加物あるいは減算的製造を行うことで, 最大効率を実現することができる。
論文 参考訳(メタデータ) (2021-11-04T09:27:10Z) - Unsupervised Learning of Visual 3D Keypoints for Control [104.92063943162896]
高次元画像からの感覚運動制御ポリシーの学習は、基礎となる視覚表現の品質に大きく依存する。
本稿では,画像から3次元幾何学的構造を直接教師なしで学習するフレームワークを提案する。
これらの発見された3Dキーポイントは、時間と3D空間の両方で一貫した方法で、ロボットの関節と物体の動きを有意義にキャプチャする傾向がある。
論文 参考訳(メタデータ) (2021-06-14T17:59:59Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z) - Monocular Real-time Hand Shape and Motion Capture using Multi-modal Data [77.34069717612493]
本稿では,100fpsの単眼手形状とポーズ推定の新たな手法を提案する。
これは、利用可能なハンドトレーニングデータのソースをすべて活用できるように設計された、新しい学習ベースのアーキテクチャによって実現されている。
3次元手関節検出モジュールと逆キネマティクスモジュールを備えており、3次元手関節位置だけでなく、1つのフィードフォワードパスでそれらを関節回転にマッピングする。
論文 参考訳(メタデータ) (2020-03-21T03:51:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。