論文の概要: Learning to Accelerate Decomposition for Multi-Directional 3D Printing
- arxiv url: http://arxiv.org/abs/2004.03450v3
- Date: Sat, 18 Jul 2020 04:50:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 22:07:07.462256
- Title: Learning to Accelerate Decomposition for Multi-Directional 3D Printing
- Title(参考訳): 多方向3次元印刷における分解促進学習
- Authors: Chenming Wu, Yong-Jin Liu, Charlie C.L. Wang
- Abstract要約: 多方向3Dプリンティングは、サポート構造の必要性を減らしたり、取り除いたりすることができる。
近年の研究では、平面クリッピングの最適化シーケンスを見つけるためのビーム誘導探索アルゴリズムが提案されている。
そこで本研究では,ビーム誘導探索を高速化する学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 31.658049974100088
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-directional 3D printing has the capability of decreasing or eliminating
the need for support structures. Recent work proposed a beam-guided search
algorithm to find an optimized sequence of plane-clipping, which gives volume
decomposition of a given 3D model. Different printing directions are employed
in different regions to fabricate a model with tremendously less support (or
even no support in many cases).To obtain optimized decomposition, a large beam
width needs to be used in the search algorithm, leading to a very
time-consuming computation. In this paper, we propose a learning framework that
can accelerate the beam-guided search by using a smaller number of the original
beam width to obtain results with similar quality. Specifically, we use the
results of beam-guided search with large beam width to train a scoring function
for candidate clipping planes based on six newly proposed feature metrics. With
the help of these feature metrics, both the current and the sequence-dependent
information are captured by the neural network to score candidates of clipping.
As a result, we can achieve around 3x computational speed. We test and
demonstrate our accelerated decomposition on a large dataset of models for 3D
printing.
- Abstract(参考訳): 多方向3dプリンティングは、支持構造の必要性を減少または排除する能力を持つ。
近年の研究では、ビーム誘導探索アルゴリズムにより、与えられた3次元モデルの体積分解を行う平面クリッピングの最適化シーケンスが提案されている。
異なる印刷方向が異なる地域で採用され、非常に少ないサポート(多くの場合、サポートなし)でモデルを作成する。
最適化された分解を得るためには、探索アルゴリズムで大きなビーム幅を使う必要があり、非常に時間を要する計算に繋がる。
そこで本研究では, ビーム幅を小さくすることで, ビーム誘導探索を高速化し, 同様の品質で結果を得る学習フレームワークを提案する。
具体的には,新たに提案する6つの特徴量に基づいて,ビーム幅が大きいビーム誘導探索の結果を用いて,候補クリッピング平面のスコア関数を学習する。
これらの特徴メトリクスの助けを借りて、電流とシーケンス依存の情報の両方をニューラルネットワークによってキャプチャして、クリップの候補を評価する。
その結果,計算速度が約3倍になることがわかった。
3Dプリンティングのための大規模なモデルデータセット上で、高速化された分解を試行する。
関連論文リスト
- 3DiffTection: 3D Object Detection with Geometry-Aware Diffusion Features [70.50665869806188]
3DiffTectionは、単一の画像から3Dオブジェクトを検出する最先端の方法である。
拡散モデルを微調整し、単一の画像に条件付けされた新しいビュー合成を行う。
さらに、検出監視により、ターゲットデータ上でモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-11-07T23:46:41Z) - PointOcc: Cylindrical Tri-Perspective View for Point-based 3D Semantic
Occupancy Prediction [72.75478398447396]
本稿では,点雲を効果的かつ包括的に表現する円筒型三重対視図を提案する。
また,LiDAR点雲の距離分布を考慮し,円筒座標系における三点ビューを構築した。
プロジェクション中に構造の詳細を維持するために空間群プーリングを使用し、各TPV平面を効率的に処理するために2次元バックボーンを採用する。
論文 参考訳(メタデータ) (2023-08-31T17:57:17Z) - GPU optimization of the 3D Scale-invariant Feature Transform Algorithm
and a Novel BRIEF-inspired 3D Fast Descriptor [5.1537294207900715]
本研究は,大規模な医用画像データからの機械学習を目的として,SIFTアルゴリズムの高効率実装について述べる。
3D SIFTコードの主要な操作は、畳み込み、サブサンプリング、スケールスペースピラミッドからの4Dピーク検出を含むグラフィックス処理ユニット(GPU)上に実装されている。
パフォーマンス改善は、異なる人の3D MRI人間の脳量を用いて、キーポイント検出と画像と画像のマッチング実験で定量化される。
論文 参考訳(メタデータ) (2021-12-19T20:56:40Z) - Sketching as a Tool for Understanding and Accelerating Self-attention
for Long Sequences [52.6022911513076]
トランスフォーマーベースのモデルは、自己アテンションモジュールの二次空間と時間的複雑さのために、長いシーケンスを処理するのに効率的ではない。
我々はLinformerとInformerを提案し、低次元投影と行選択により2次複雑性を線形(モジュラー対数因子)に還元する。
理論的解析に基づいて,Skeinformerを提案することにより,自己注意の促進と,自己注意への行列近似の精度の向上を図ることができる。
論文 参考訳(メタデータ) (2021-12-10T06:58:05Z) - Cherry-Picking Gradients: Learning Low-Rank Embeddings of Visual Data
via Differentiable Cross-Approximation [53.95297550117153]
本稿では,大規模な視覚データテンソルの処理を行うエンドツーエンドのトレーニング可能なフレームワークを提案する。
提案手法は大規模多次元グリッドデータや,大規模受容領域上のコンテキストを必要とするタスクに特に有用である。
論文 参考訳(メタデータ) (2021-05-29T08:39:57Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z) - X3D: Expanding Architectures for Efficient Video Recognition [21.539880641349693]
X3Dは、小さな2D画像分類アーキテクチャを徐々に拡張する効率的なビデオネットワークのファミリーである。
機械学習における特徴選択法に触発されて、単純なステップワイズネットワーク拡張アプローチが採用されている。
我々は,ビデオ分類および検出ベンチマークにおいて,前例のない効率で競合精度を報告した。
論文 参考訳(メタデータ) (2020-04-09T17:59:47Z) - Light3DPose: Real-time Multi-Person 3D PoseEstimation from Multiple
Views [5.510992382274774]
いくつかのキャリブレーションされたカメラビューから複数の人物の3次元ポーズ推定を行う手法を提案する。
我々のアーキテクチャは、2次元ポーズ推定器のバックボーンから特徴マップを3次元シーンの包括的表現に集約する。
提案手法は本質的に効率的であり, 純粋なボトムアップ手法として, 現場の人数から計算的に独立している。
論文 参考訳(メタデータ) (2020-04-06T14:12:19Z) - Scan-based Semantic Segmentation of LiDAR Point Clouds: An Experimental
Study [2.6205925938720833]
最先端の手法では、深いニューラルネットワークを使用して、LiDARスキャンの各点のセマンティッククラスを予測する。
LiDAR測定を処理するための強力で効率的な方法は、2次元の画像のような投影を使うことである。
メモリの制約だけでなく、パフォーマンスの向上やランタイムの改善など、さまざまなテクニックを実証する。
論文 参考訳(メタデータ) (2020-04-06T11:08:12Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。