論文の概要: Practitioner Paper: Decoding Intellectual Property: Acoustic and Magnetic Side-channel Attack on a 3D Printer
- arxiv url: http://arxiv.org/abs/2411.10887v1
- Date: Sat, 16 Nov 2024 21:05:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-19 14:31:49.625921
- Title: Practitioner Paper: Decoding Intellectual Property: Acoustic and Magnetic Side-channel Attack on a 3D Printer
- Title(参考訳): 実践者論文:知的財産の復号:3Dプリンタの音響・磁気サイドチャネル攻撃
- Authors: Amirhossein Jamarani, Yazhou Tu, Xiali Hei,
- Abstract要約: 本研究は,3Dプリンタ上でサイドチャネル攻撃を行うことにより,G符号の再構築の実現可能性を示す。
グラディエントブースト決定木を用いたモデルの訓練により, 軸運動, ステッパ, ノズル, ロータ速度の予測精度が向上した。
実世界の試験において本モデルを効果的に展開し, 平均テンディエンシエラー(MTE)を4.47%, 平易なGコード設計で達成する。
- 参考スコア(独自算出の注目度): 3.0832643041058607
- License:
- Abstract: The widespread accessibility and ease of use of additive manufacturing (AM), widely recognized as 3D printing, has put Intellectual Property (IP) at great risk of theft. As 3D printers emit acoustic and magnetic signals while printing, the signals can be captured and analyzed using a smartphone for the purpose of IP attack. This is an instance of physical-to-cyber exploitation, as there is no direct contact with the 3D printer. Although cyber vulnerabilities in 3D printers are becoming more apparent, the methods for protecting IPs are yet to be fully investigated. The threat scenarios in previous works have mainly rested on advanced recording devices for data collection and entailed placing the device very close to the 3D printer. However, our work demonstrates the feasibility of reconstructing G-codes by performing side-channel attacks on a 3D printer using a smartphone from greater distances. By training models using Gradient Boosted Decision Trees, our prediction results for each axial movement, stepper, nozzle, and rotor speed achieve high accuracy, with a mean of 98.80%, without any intrusiveness. We effectively deploy the model in a real-world examination, achieving a Mean Tendency Error (MTE) of 4.47% on a plain G-code design.
- Abstract(参考訳): 3Dプリンティングとして広く認知されている添加物製造(AM)の幅広いアクセシビリティと使いやすさにより、知的財産権(IP)は盗難のリスクが高い。
3Dプリンタは、印刷中に音響信号と磁気信号を出力するので、IP攻撃のためにスマートフォンを使って信号をキャプチャして分析することができる。
これは3Dプリンタと直接接触することができないため、物理から物理へのエクスプロイトの例である。
3Dプリンタのサイバー脆弱性は明らかになってきているが、IPを保護する方法はまだ十分に研究されていない。
前作の脅威シナリオは、主にデータ収集のための高度な記録装置に当てはまり、デバイスを3Dプリンタに非常に近い位置に配置する必要があった。
しかし,本研究では,スマートフォンを用いた3Dプリンタのサイドチャネル攻撃によるG符号の再構築の可能性を示す。
グラディエントブースト決定木を用いたモデルの訓練により,各軸運動,ステッパ,ノズル,ロータ速度の予測結果が98.80%の精度で達成される。
実世界の試験において本モデルを効果的に展開し, 平均テンディエンシエラー(MTE)を4.47%, 平易なGコード設計で達成する。
関連論文リスト
- Poison-splat: Computation Cost Attack on 3D Gaussian Splatting [90.88713193520917]
3DGSで見過ごされてきた重大なセキュリティ脆弱性を明らかにします。
相手は入力画像に毒を加えることで、3DGSトレーニングに必要な計算メモリと時間を大幅に増加させることができる。
このような計算コスト攻撃は、二段階最適化問題に対処することで達成される。
論文 参考訳(メタデータ) (2024-10-10T17:57:29Z) - BadFusion: 2D-Oriented Backdoor Attacks against 3D Object Detection [12.987427748635037]
3Dオブジェクト検出は、自動運転において重要な役割を果たすが、バックドア攻撃に対する脆弱性は明らかになっている。
既存の3Dオブジェクト検出に対するバックドア攻撃は主に3D LiDARシグナルを毒する。
本稿では,3次元物体検出のためのLiDAR-camera fusion法に対して,BadFusionと呼ばれる革新的な2D指向のバックドアアタックを提案する。
論文 参考訳(メタデータ) (2024-05-06T22:02:38Z) - NeRF-MAE: Masked AutoEncoders for Self-Supervised 3D Representation Learning for Neural Radiance Fields [57.617972778377215]
提案手法は,RGB画像から有効な3D表現を生成する方法を示す。
我々は、この表現を、提案した擬似RGBデータに基づいて、180万枚以上の画像で事前訓練する。
我々は,NeRFの自己教師型プレトレーニングであるNeRF-MAE(NeRF-MAE)を目覚ましいスケールで実施し,様々な3Dタスクの性能向上を実現した。
論文 参考訳(メタデータ) (2024-04-01T17:59:55Z) - Secure Information Embedding and Extraction in Forensic 3D Fingerprinting [15.196378932114518]
3Dプリンティングの流行は公衆の安全に重大なリスクをもたらす。
情報を識別する3Dプリントをタグ付けするために、いくつかのアプローチが取られている。
指紋として知られるこの情報は、様々なビット埋め込み技術を用いてオブジェクトに書き込まれる。
論文 参考訳(メタデータ) (2024-03-07T22:03:46Z) - AdvMono3D: Advanced Monocular 3D Object Detection with Depth-Aware
Robust Adversarial Training [64.14759275211115]
そこで本研究では,DART3Dと呼ばれるモノクル3次元物体検出のための,深度対応の頑健な対向学習法を提案する。
我々の敵の訓練アプローチは、本質的な不確実性に乗じて、敵の攻撃に対する堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2023-09-03T07:05:32Z) - FastPillars: A Deployment-friendly Pillar-based 3D Detector [63.0697065653061]
既存のBEVベースの(つまりバードアイビュー)検出器は、トレーニングと推論を高速化するためにスパース・コンボリューション(SPConv)を好む。
FastPillarsは、CenterPoint(SPConvベース)よりも1.8倍のスピードアップと3.8mAPH/L2の改善で、Openデータセットの最先端の精度を提供する
論文 参考訳(メタデータ) (2023-02-05T12:13:27Z) - 3D-EDM: Early Detection Model for 3D-Printer Faults [0.0]
正確なキャリブレーションを施した3Dプリンタを使用するのは難しい。
従来の研究では、センサデータと機械学習を用いた画像データを用いてこれらの問題を検出できることが示唆されている。
将来、実際の利用を考えると、収集が容易なデータによる軽量早期検出モデルの作成に重点を置いている。
論文 参考訳(メタデータ) (2022-03-23T02:46:26Z) - Back to Reality: Weakly-supervised 3D Object Detection with Shape-guided
Label Enhancement [93.77156425817178]
本研究では,3次元物体検出のための弱教師付きアプローチを提案する。
我々の手法、すなわちBack to Reality (BR)は、弱いラベルを完全な注釈付き仮想シーンに変換するために合成された3D形状を利用する。
ラベル付け作業の5%未満で、広く使用されているScanNetデータセットに対して、一般的なフル教師付きアプローチを用いて、同等な検出性能を達成する。
論文 参考訳(メタデータ) (2022-03-10T08:51:32Z) - Expandable YOLO: 3D Object Detection from RGB-D Images [64.14512458954344]
本稿では,ステレオカメラから深度とカラー画像を入力する軽量物体検出器の構築を目的とする。
YOLOv3のネットワークアーキテクチャを中央から3Dに拡張することにより、深さ方向の出力が可能となる。
領域抽出結果の精度を確認するため、3次元空間におけるユニノン(IoU)の切断を導入する。
論文 参考訳(メタデータ) (2020-06-26T07:32:30Z) - 3D Printed Brain-Controlled Robot-Arm Prosthetic via Embedded Deep
Learning from sEMG Sensors [4.901124285608471]
本研究では,Google Inceptionモデルに適用した転写学習技術を用いて,表面筋電図(sEMG)分類の最終層を再構成する手法を提案する。
Thalmic Labsmyo Armbandを使ってデータを収集し、画像ごとに8つのサブプロットからなるグラフ画像を生成する。
深層学習モデルであるInception-v3では、新しいデータのリアルタイム入力で各モデルの正確な予測をトレーニングする。
脳制御ロボットアームは3Dプリンターと市販のハードウェアを使って製造された。
論文 参考訳(メタデータ) (2020-05-04T19:14:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。