論文の概要: A Novel Solution of Using Mixed Reality in Bowel and Oral and
Maxillofacial Surgical Telepresence: 3D Mean Value Cloning algorithm
- arxiv url: http://arxiv.org/abs/2104.06316v1
- Date: Wed, 17 Mar 2021 10:01:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-07 20:53:19.015007
- Title: A Novel Solution of Using Mixed Reality in Bowel and Oral and
Maxillofacial Surgical Telepresence: 3D Mean Value Cloning algorithm
- Title(参考訳): 口腔外科的テレプレゼンスにおける混合現実感の新たな解決法:3次元平均値クローニングアルゴリズム
- Authors: Arjina Maharjan, Abeer Alsadoon, P.W.C. Prasad, Nada AlSallami, Tarik
A. Rashid, Ahmad Alrubaie, Sami Haddad
- Abstract要約: 本研究の目的は,手術現場の拡張現実映像と遠隔専門医のバーチャルハンドを組み合わせることで,複合映像の制作を支援する新しいソリューションを提案することである。
提案システムは,最終合成ビデオの空間的時間的一貫性を維持するために,平均値クローニングアルゴリズムを改良した。
- 参考スコア(独自算出の注目度): 29.231808429620646
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Background and aim: Most of the Mixed Reality models used in the surgical
telepresence are suffering from discrepancies in the boundary area and
spatial-temporal inconsistency due to the illumination variation in the video
frames. The aim behind this work is to propose a new solution that helps
produce the composite video by merging the augmented video of the surgery site
and the virtual hand of the remote expertise surgeon. The purpose of the
proposed solution is to decrease the processing time and enhance the accuracy
of merged video by decreasing the overlay and visualization error and removing
occlusion and artefacts. Methodology: The proposed system enhanced the mean
value cloning algorithm that helps to maintain the spatial-temporal consistency
of the final composite video. The enhanced algorithm includes the 3D mean value
coordinates and improvised mean value interpolant in the image cloning process,
which helps to reduce the sawtooth, smudging and discolouration artefacts
around the blending region. Results: As compared to the state of the art
solution, the accuracy in terms of overlay error of the proposed solution is
improved from 1.01mm to 0.80mm whereas the accuracy in terms of visualization
error is improved from 98.8% to 99.4%. The processing time is reduced to 0.173
seconds from 0.211 seconds. Conclusion: Our solution helps make the object of
interest consistent with the light intensity of the target image by adding the
space distance that helps maintain the spatial consistency in the final merged
video.
- Abstract(参考訳): 背景と目的:手術用テレプレゼンスで使用される複合現実感モデルのほとんどは、映像フレームの照明変化による境界領域と空間-時間的不整合の相違に苦しめられている。
本研究の目的は,手術現場の拡張現実映像と遠隔専門医のバーチャルハンドを組み合わせることで,複合映像の制作を支援する新しいソリューションを提案することである。
提案手法の目的は,オーバーレイと可視化誤差を低減し,咬合やアーチファクトを除去することにより,処理時間を短縮し,マージ映像の精度を高めることである。
方法論: 提案システムは, 合成ビデオの空間的時間的一貫性を維持するために, 平均値クローニングアルゴリズムを改良した。
改良されたアルゴリズムは、3D平均値座標と画像クローニング工程における即興平均値補間を含み、ブレンディング領域周辺のソートゥース、スムージングおよび脱色アーティファクトを低減するのに役立つ。
結果: art ソリューションの状態と比較して,提案手法のオーバーレイ誤差の精度は 1.01mm から 0.80mm に向上し,可視化誤差の精度は 98.8% から 99.4% に向上した。
処理時間は0.211秒から0.173秒に短縮される。
結論:本ソリューションは,最終的な統合ビデオにおける空間的一貫性を維持する空間距離を付加することにより,対象画像の光強度と利害関係を一致させるのに役立つ。
関連論文リスト
- Unrolled Decomposed Unpaired Learning for Controllable Low-Light Video Enhancement [48.76608212565327]
本稿では,2対の地上真実を使わずに,低照度映像のエンハンスメントを学習する上での取り組みについて述べる。
低照度画像の強調に比べて、空間領域におけるノイズ、露出、コントラストの相互干渉効果により、時間的コヒーレンスの必要性が伴うため、低照度映像の強調は困難である。
本稿では,信号の空間的・時間的関連要因に分解するために,最適化関数を深層ネットワークにアンロールすることで低照度映像の高精細化を実現するUnrolled Decompposed Unpaired Network (UDU-Net)を提案する。
論文 参考訳(メタデータ) (2024-08-22T11:45:11Z) - Learning Spatial Adaptation and Temporal Coherence in Diffusion Models for Video Super-Resolution [151.1255837803585]
ビデオ超解像のための空間適応と時間コヒーレンス(SATeCo)を追求する新しい手法を提案する。
SATeCoは低解像度ビデオから時空間ガイダンスを学習し、潜時空間高解像度ビデオデノイングとピクセル空間ビデオ再構成の両方を校正する。
REDS4データセットとVid4データセットを用いて行った実験は、我々のアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2024-03-25T17:59:26Z) - Online estimation of the hand-eye transformation from surgical scenes [11.797350284719803]
本稿では,画像とキネマティックデータのシーケンスから変換を推定するニューラルネットワークベースのソリューションを提案する。
提案アルゴリズムは,ディープラーニング技術を用いてキャリブレーション手順を単純化できることを示す。
論文 参考訳(メタデータ) (2023-06-04T04:55:02Z) - Mixed Reality Depth Contour Occlusion Using Binocular Similarity
Matching and Three-dimensional Contour Optimisation [3.9692358105634384]
混合現実のアプリケーションは、現実のオブジェクトによって部分的に隠された仮想オブジェクトを必要とすることが多い。
従来の研究や商業製品は、性能と効率の面で制限があった。
論文 参考訳(メタデータ) (2022-03-04T13:16:40Z) - Differentiable Rendering with Perturbed Optimizers [85.66675707599782]
2Dイメージプロジェクションから3Dシーンを推論することは、コンピュータビジョンにおける中核的な問題の一つだ。
我々の研究は、よく知られた微分可能な定式化とランダムなスムーズなレンダリングの関連性を強調している。
提案手法を3次元シーン再構成に適用し,その利点を6次元ポーズ推定と3次元メッシュ再構成の課題に適用した。
論文 参考訳(メタデータ) (2021-10-18T08:56:23Z) - Mixed Reality using Illumination-aware Gradient Mixing in Surgical
Telepresence: Enhanced Multi-layer Visualization [27.681891555949672]
本研究の目的は,グローバルに一貫した映像を制作することで,最終統合映像の可視化を改善する方法を提案することである。
提案システムでは,照明に配慮した勾配混合による多層可視化手法を提案する。
論文 参考訳(メタデータ) (2021-08-21T11:59:24Z) - Robust 360-8PA: Redesigning The Normalized 8-point Algorithm for 360-FoV
Images [53.11097060367591]
球面投影における360-fov画像から本質行列を推定する新しい手法を提案する。
我々の正規化は、時間を大幅に上回ることなく、カメラの精度を約20%向上させることができることを示す。
論文 参考訳(メタデータ) (2021-04-22T07:23:11Z) - A Novel Visualization System of Using Augmented Reality in Knee
Replacement Surgery: Enhanced Bidirectional Maximum Correntropy Algorithm [28.55685915431049]
本研究はビデオの精度を0.57 mm0.61 mmアライメント誤差に改善した。
例えば、前方と後方のクラウドポイントのような双方向ポイントを使用することで、画像登録のイテレーションが減少する。
論文 参考訳(メタデータ) (2021-03-13T19:18:16Z) - Enhanced Quadratic Video Interpolation [56.54662568085176]
より複雑なシーンや動きパターンを扱うために,拡張された2次ビデオ(EQVI)モデルを提案する。
さらなる性能向上のために,学習可能な拡張プロセスと見なせる新しいマルチスケール核融合ネットワーク(MS-Fusion)を考案した。
提案されたEQVIモデルは、AIM 2020 Video Temporal Super-Resolution Challengeで優勝した。
論文 参考訳(メタデータ) (2020-09-10T02:31:50Z) - Spatiotemporal Bundle Adjustment for Dynamic 3D Human Reconstruction in
the Wild [49.672487902268706]
本稿では,カメラの時間的アライメントと3次元点三角測量を共同で推定する枠組みを提案する。
複数の無同期・無同期ビデオカメラで捉えたイベントにおいて、人間の身体の3次元運動軌跡を再構成する。
論文 参考訳(メタデータ) (2020-07-24T23:50:46Z) - Real-time Dense Reconstruction of Tissue Surface from Stereo Optical
Video [10.181846237133167]
立体光学ビデオから組織表面の高密度3次元モデル(3次元)をリアルタイムに再構成する手法を提案する。
まずステレオマッチングを用いてビデオフレームから3D情報を抽出し,再構成した3Dモデルをモザイクする。
2mm未満の精度で高分解能テクスチャを有する復元3Dモデルについて, 生体内および生体内データによる実験結果を得た。
論文 参考訳(メタデータ) (2020-07-16T19:14:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。