論文の概要: Mixed Reality using Illumination-aware Gradient Mixing in Surgical
Telepresence: Enhanced Multi-layer Visualization
- arxiv url: http://arxiv.org/abs/2110.09318v1
- Date: Sat, 21 Aug 2021 11:59:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-17 21:03:09.705453
- Title: Mixed Reality using Illumination-aware Gradient Mixing in Surgical
Telepresence: Enhanced Multi-layer Visualization
- Title(参考訳): 手術用テレプレゼンスにおける照明対応グラディエントミキシングを用いた混合現実感:多層可視化の強化
- Authors: Nirakar Puri, Abeer Alsadoon, P.W.C. Prasad, Nada Alsalami, Tarik A.
Rashid
- Abstract要約: 本研究の目的は,グローバルに一貫した映像を制作することで,最終統合映像の可視化を改善する方法を提案することである。
提案システムでは,照明に配慮した勾配混合による多層可視化手法を提案する。
- 参考スコア(独自算出の注目度): 27.681891555949672
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Background and aim: Surgical telepresence using augmented perception has been
applied, but mixed reality is still being researched and is only theoretical.
The aim of this work is to propose a solution to improve the visualization in
the final merged video by producing globally consistent videos when the
intensity of illumination in the input source and target video varies.
Methodology: The proposed system uses an enhanced multi-layer visualization
with illumination-aware gradient mixing using Illumination Aware Video
Composition algorithm. Particle Swarm Optimization Algorithm is used to find
the best sample pair from foreground and background region and image pixel
correlation to estimate the alpha matte. Particle Swarm Optimization algorithm
helps to get the original colour and depth of the unknown pixel in the unknown
region. Result: Our results showed improved accuracy caused by reducing the
Mean squared Error for selecting the best sample pair for unknown region in 10
each sample for bowel, jaw and breast. The amount of this reduction is 16.48%
from the state of art system. As a result, the visibility accuracy is improved
from 89.4 to 97.7% which helped to clear the hand vision even in the difference
of light. Conclusion: Illumination effect and alpha pixel correlation improves
the visualization accuracy and produces a globally consistent composition
results and maintains the temporal coherency when compositing two videos with
high and inverse illumination effect. In addition, this paper provides a
solution for selecting the best sampling pair for the unknown region to obtain
the original colour and depth.
- Abstract(参考訳): 背景と目的: 拡張現実を用いた手術用テレプレゼンスが応用されているが, 混合現実は研究が続けられており, 理論上のみである。
本研究の目的は,入力源および対象映像の照明強度が変化した場合に,グローバルに一貫した映像を生成することにより,最終的な統合映像の可視化を改善する方法を提案することである。
方法論:本システムでは,照明認識型映像合成アルゴリズムを用いた照明認識勾配混合による拡張多層可視化を行う。
particle swarm optimizationアルゴリズムは、アルファマットを推定するために、前景と背景領域と画像画素相関から最適なサンプルペアを見つけるために使用される。
Particle Swarm Optimizationアルゴリズムは、未知の領域の未知のピクセルの色と深さを取得するのに役立つ。
結果: 大腸, 顎, 乳房のサンプル10点につき, 未知領域のサンプルペアを選別する平均二乗誤差を減少させることにより, 精度が向上した。
この削減の量は、state of art systemから16.48%である。
その結果、視認性は89.4から97.7%に向上し、光の差でも手視をクリアすることができた。
結論: 照明効果とアルファ画素相関は, 可視化精度を向上し, グローバルに一貫性のある合成結果を生成し, 高可逆照明効果の2つの映像を合成する際の時間的一貫性を維持する。
さらに,本論文では,未知領域に対して最適なサンプリングペアを選択することで,原色と深度を求める方法を提案する。
関連論文リスト
- Materialist: Physically Based Editing Using Single-Image Inverse Rendering [50.39048790589746]
本稿では、学習に基づくアプローチとプログレッシブな微分可能レンダリングを組み合わせた手法を提案する。
提案手法は,より現実的な光物質相互作用,正確な影,大域的な照明を実現する。
また,全シーン形状を必要とせず,効果的に機能する材料透過性編集手法を提案する。
論文 参考訳(メタデータ) (2025-01-07T11:52:01Z) - Zero-Shot Enhancement of Low-Light Image Based on Retinex Decomposition [4.175396687130961]
本稿ではZERRINNetと呼ばれるゼロショット低照度化手法の学習に基づくRetinex分解を提案する。
本手法は,ペアとアンペアのデータセットのトレーニングデータの影響を受けないゼロ参照拡張手法である。
論文 参考訳(メタデータ) (2023-11-06T09:57:48Z) - Guided Linear Upsampling [8.819059777836628]
ガイドアップサンプリングは高解像度画像処理の高速化に有効な手法である。
出血やぼやけなどのアーティファクトを抑えながら, ディテール効果をよりよく保存することができる。
対話型画像編集とリアルタイム高精細ビデオ処理の両面において,本手法の利点を実証する。
論文 参考訳(メタデータ) (2023-07-13T08:04:24Z) - LUT-GCE: Lookup Table Global Curve Estimation for Fast Low-light Image
Enhancement [62.17015413594777]
LUT-GCEという低照度画像強調のための効果的かつ効率的な手法を提案する。
画像全体に対する大域的な曲線を推定し、被曝と過剰露光の両方の補正を可能にする。
我々のアプローチは、特に高精細画像(例えば1080pと4k)において、推論速度の観点から、技術の現状よりも優れています。
論文 参考訳(メタデータ) (2023-06-12T12:53:06Z) - NeFII: Inverse Rendering for Reflectance Decomposition with Near-Field
Indirect Illumination [48.42173911185454]
逆レンダリング手法は、多視点RGB画像から幾何学、材料、照明を推定することを目的としている。
本稿では,多視点画像から材料と照明を分解するエンドツーエンドの逆レンダリングパイプラインを提案する。
論文 参考訳(メタデータ) (2023-03-29T12:05:19Z) - NLHD: A Pixel-Level Non-Local Retinex Model for Low-Light Image
Enhancement [7.489618301273569]
新たな画素レベルの非局所ハール変換を用いた照明・反射率分解法(NLHD)を提案する。
一致した類似画素群における画素の完全類似性と単純な分離可能なハール変換はより適切な画像分解を得るのに役立つ。
ベンチマークデータセットを用いた実験により,提案手法は主観的・客観的評価において,低照度画像強調結果の精度が向上することを示した。
論文 参考訳(メタデータ) (2021-06-13T11:48:14Z) - Efficient and Differentiable Shadow Computation for Inverse Problems [64.70468076488419]
微分可能幾何計算は画像に基づく逆問題に対する関心が高まっている。
微分可能な可視性とソフトシャドウ計算のための効率的かつ効率的なアプローチを提案する。
定式化は微分可能であるため, テクスチャ, 照明, 剛体ポーズ, 画像からの変形回復などの逆問題を解くために使用できる。
論文 参考訳(メタデータ) (2021-04-01T09:29:05Z) - Degrade is Upgrade: Learning Degradation for Low-light Image Enhancement [52.49231695707198]
2段階の工程で細部と色を精錬しながら、内在的な劣化と低照度画像を照らし出す。
カラー画像の定式化に触発されて,まず低照度入力からの劣化を推定し,環境照明色の歪みをシミュレーションし,そのコンテンツを精錬して拡散照明色の損失を回復した。
LOL1000データセットではPSNRで0.95dB、ExDarkデータセットでは3.18%のmAPでSOTAを上回った。
論文 参考訳(メタデータ) (2021-03-19T04:00:27Z) - A Novel Solution of Using Mixed Reality in Bowel and Oral and
Maxillofacial Surgical Telepresence: 3D Mean Value Cloning algorithm [29.231808429620646]
本研究の目的は,手術現場の拡張現実映像と遠隔専門医のバーチャルハンドを組み合わせることで,複合映像の制作を支援する新しいソリューションを提案することである。
提案システムは,最終合成ビデオの空間的時間的一貫性を維持するために,平均値クローニングアルゴリズムを改良した。
論文 参考訳(メタデータ) (2021-03-17T10:01:06Z) - Learning Spatial and Spatio-Temporal Pixel Aggregations for Image and
Video Denoising [104.59305271099967]
ピクセル集計ネットワークを提示し、画像デノイジングのためのピクセルサンプリングと平均戦略を学びます。
時間空間にまたがるサンプル画素をビデオデノナイズするための画素集約ネットワークを開発した。
本手法は,動的シーンにおける大きな動きに起因する誤認問題を解決することができる。
論文 参考訳(メタデータ) (2021-01-26T13:00:46Z) - Low-light Image Enhancement Using the Cell Vibration Model [12.400040803969501]
低い光は、画像の品質を低下させ、視覚的なタスクの失敗を引き起こす可能性が非常に高い。
そこで本研究では,新しい低照度画像の輝度向上手法を提案する。
実験の結果,提案アルゴリズムは9つの最先端手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-06-03T13:39:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。