論文の概要: Simplify Implant Depth Prediction as Video Grounding: A Texture Perceive Implant Depth Prediction Network
- arxiv url: http://arxiv.org/abs/2406.04603v1
- Date: Fri, 7 Jun 2024 03:24:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-10 15:39:08.305533
- Title: Simplify Implant Depth Prediction as Video Grounding: A Texture Perceive Implant Depth Prediction Network
- Title(参考訳): ビデオグラウンドディングとしてのインプラント深さ予測の簡易化:テクスチャ知覚インプラント深さ予測ネットワーク
- Authors: Xinquan Yang, Xuguang Li, Xiaoling Luo, Leilei Zeng, Yudi Zhang, Linlin Shen, Yongqiang Deng,
- Abstract要約: テクスチャ知覚インプラント深さ予測ネットワーク(TPNet)を開発した。
TPNetは、インプラント領域検出器(IRD)とインプラント深さ予測ネットワーク(IDPNet)から構成される。
大規模な歯科インプラントデータセットを用いた実験により,提案したTPNetは既存の方法よりも優れた性能を示した。
- 参考スコア(独自算出の注目度): 26.68803827522865
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Surgical guide plate is an important tool for the dental implant surgery. However, the design process heavily relies on the dentist to manually simulate the implant angle and depth. When deep neural networks have been applied to assist the dentist quickly locates the implant position, most of them are not able to determine the implant depth. Inspired by the video grounding task which localizes the starting and ending time of the target video segment, in this paper, we simplify the implant depth prediction as video grounding and develop a Texture Perceive Implant Depth Prediction Network (TPNet), which enables us to directly output the implant depth without complex measurements of oral bone. TPNet consists of an implant region detector (IRD) and an implant depth prediction network (IDPNet). IRD is an object detector designed to crop the candidate implant volume from the CBCT, which greatly saves the computation resource. IDPNet takes the cropped CBCT data to predict the implant depth. A Texture Perceive Loss (TPL) is devised to enable the encoder of IDPNet to perceive the texture variation among slices. Extensive experiments on a large dental implant dataset demonstrated that the proposed TPNet achieves superior performance than the existing methods.
- Abstract(参考訳): 外科ガイドプレートはインプラント手術において重要な道具である。
しかし, インプラントの角度と深さを手動でシミュレートするには, 歯科医に強く依存する。
ディープニューラルネットワークを応用して歯科医がインプラントの位置を素早く見つけると、そのほとんどはインプラントの深さを決定できない。
本稿では,対象映像セグメントの開始・終了時刻をローカライズするビデオ接地タスクに着想を得て,インプラント深度予測をビデオ接地として単純化し,複雑な経口骨計測を行うことなくインプラント深度を直接出力できるテクスチャ知覚インプラント深度予測ネットワーク(TPNet)を開発した。
TPNetは、インプラント領域検出器(IRD)とインプラント深さ予測ネットワーク(IDPNet)で構成されている。
IRDはCBCTから候補インプラント体積を抽出するために設計されたオブジェクト検出器であり、計算資源を大幅に節約する。
IDPNetは、採取したCBCTデータを用いてインプラント深さを予測する。
テクスチャ知覚損失 (TPL) は, IDPNet のエンコーダがスライス間のテクスチャ変化を知覚できるようにするために考案された。
大規模な歯科インプラントデータセットの広範囲な実験により,提案したTPNetは既存の方法よりも優れた性能を示した。
関連論文リスト
- TCSloT: Text Guided 3D Context and Slope Aware Triple Network for Dental
Implant Position Prediction [27.020346431680355]
インプラント補綴治療では、正確なインプラントを確保するために、インプラントの外科的ガイドが使用される。
インプラント位置の特定に歯科医を補助するディープニューラルネットワークが提案されている。
本稿では,テキストガイドによる3Dコンテキストとスロープアウェアトリプルネットワーク(TCSloT)を設計する。
論文 参考訳(メタデータ) (2023-08-10T05:51:21Z) - TCEIP: Text Condition Embedded Regression Network for Dental Implant
Position Prediction [28.824994303170882]
ディープニューラルネットワークは、歯科インプラントの位置を設計する際に歯科医を支援するために提案されている。
文献は、複数の欠損歯がある場合、うまく機能せず、歯がまばらに分布しているとき、容易に偽の予測を発生させる。
本稿では,テキスト条件をエンコーダ・デコーダ・フレームワークに組み込むために,テキスト条件埋め込み型インプラント位置回帰ネットワーク(TCEIP)を提案する。
論文 参考訳(メタデータ) (2023-06-26T03:38:43Z) - Two-Stream Regression Network for Dental Implant Position Prediction [29.864052654136614]
インプラント補綴治療において,手術ガイドの設計はインプラント位置のマニュアル位置に大きく依存している。
ディープラーニングに基づく手法が、この問題に対処するために適用され始めている。
歯間の空間は様々であり、実際のインプラント領域と類似したテクスチャ特性を示すものもある。
論文 参考訳(メタデータ) (2023-05-17T08:37:26Z) - ImplantFormer: Vision Transformer based Implant Position Regression
Using Dental CBCT Data [27.020346431680355]
インプラント補綴は歯列欠損や歯列喪失の最も適切な治療であり、通常インプラント位置を決定するための外科的ガイド設計プロセスを必要とする。
本稿では, 経口CBCTデータに基づいてインプラント位置の自動予測を行うために, トランスフォーマを用いたインプラント位置回帰ネットワーク, implantFormerを提案する。
歯冠面積の2次元軸方向ビューを用いてインプラント位置を予測し,インプラントの中心線を適合させて実際のインプラント位置を歯根に求めることを創造的に提案する。
論文 参考訳(メタデータ) (2022-10-29T02:31:27Z) - NAF: Neural Attenuation Fields for Sparse-View CBCT Reconstruction [79.13750275141139]
本稿では,スパースビューCBCT再構成のための新規かつ高速な自己教師型ソリューションを提案する。
所望の減衰係数は、3次元空間座標の連続関数として表現され、完全に接続されたディープニューラルネットワークによってパラメータ化される。
ハッシュ符号化を含む学習ベースのエンコーダが採用され、ネットワークが高周波の詳細をキャプチャするのに役立つ。
論文 参考訳(メタデータ) (2022-09-29T04:06:00Z) - A Single-Target License Plate Detection with Attention [56.83051142257412]
ニューラルネットワークは一般にライセンスプレート検出(LPD)タスクに採用されており、パフォーマンスと精度が向上している。
LPDのような単一のオブジェクト検出タスクでは、修正された汎用オブジェクト検出は時間がかかり、複雑なシナリオや組み込みデバイスへのデプロイが困難すぎる面倒な重み付けファイルに対処できない。
論文 参考訳(メタデータ) (2021-12-12T03:00:03Z) - 3DVNet: Multi-View Depth Prediction and Volumetric Refinement [68.68537312256144]
3DVNetは、新しいマルチビューステレオ(MVS)深度予測法である。
私たちのキーとなるアイデアは、粗い深度予測を反復的に更新する3Dシーンモデリングネットワークを使用することです。
本手法は, 深度予測と3次元再構成の両指標において, 最先端の精度を超えることを示す。
論文 参考訳(メタデータ) (2021-12-01T00:52:42Z) - Two-Stage Mesh Deep Learning for Automated Tooth Segmentation and
Landmark Localization on 3D Intraoral Scans [56.55092443401416]
TS-MDLの最初の段階では、mphiMeshSegNetは0.953pm0.076$で平均Dice類似係数(DSC)に達した。
PointNet-Reg は平均絶対誤差 (MAE) が 0.623pm0.718, mm$ であり、ランドマーク検出の他のネットワークよりも優れている。
論文 参考訳(メタデータ) (2021-09-24T13:00:26Z) - Self-Supervised Generative Adversarial Network for Depth Estimation in
Laparoscopic Images [13.996932179049978]
本稿では,ジェネレーティブ・ディバイサル・ネットワークに基づく自己教師型深度推定手法であるSADepthを提案する。
エンコーダデコーダジェネレータと、トレーニング中に幾何学的制約を組み込む識別器で構成される。
2つの公開データセットの実験により、SADepthは最新の最先端の教師なし手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2021-07-09T19:40:20Z) - Sparse Auxiliary Networks for Unified Monocular Depth Prediction and
Completion [56.85837052421469]
コスト効率のよいセンサで得られたデータからシーン形状を推定することは、ロボットや自動運転車にとって鍵となる。
本稿では,1枚のRGB画像から,低コストな能動深度センサによるスパース計測により,深度を推定する問題について検討する。
sparse networks (sans) は,深さ予測と完了という2つのタスクをmonodepthネットワークで実行可能にする,新しいモジュールである。
論文 参考訳(メタデータ) (2021-03-30T21:22:26Z) - PLADE-Net: Towards Pixel-Level Accuracy for Self-Supervised Single-View
Depth Estimation with Neural Positional Encoding and Distilled Matting Loss [49.66736599668501]
PLADE-Netと呼ばれる自己監視型単視点画素レベルの高精度深度推定ネットワークを提案する。
提案手法は,KITTIデータセットの$delta1$測定値の95%を超え,前例のない精度を示す。
論文 参考訳(メタデータ) (2021-03-12T15:54:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。