論文の概要: A Feasibility Study on Image Inpainting for Non-cleft Lip Generation
from Patients with Cleft Lip
- arxiv url: http://arxiv.org/abs/2208.01149v1
- Date: Mon, 1 Aug 2022 21:44:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-03 13:15:37.981326
- Title: A Feasibility Study on Image Inpainting for Non-cleft Lip Generation
from Patients with Cleft Lip
- Title(参考訳): 口唇裂症例の非口唇形成における画像インペインティングの有用性の検討
- Authors: Shuang Chen, Amir Atapour-Abarghouei, Jane Kerby, Edmond S. L. Ho,
David C. G. Sainsbury, Sophie Butterworth, Hubert P. H. Shum
- Abstract要約: 本研究では, 口唇を覆い, 口唇と鼻を生成できる深層学習型画像塗装法を提案する。
本研究は,2つの実世界のクリフリップデータセットを用いて実施し,専門家のクリフリップ外科医による評価を行い,本手法の有効性を実証した。
- 参考スコア(独自算出の注目度): 14.608317439549303
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A Cleft lip is a congenital abnormality requiring surgical repair by a
specialist. The surgeon must have extensive experience and theoretical
knowledge to perform surgery, and Artificial Intelligence (AI) method has been
proposed to guide surgeons in improving surgical outcomes. If AI can be used to
predict what a repaired cleft lip would look like, surgeons could use it as an
adjunct to adjust their surgical technique and improve results. To explore the
feasibility of this idea while protecting patient privacy, we propose a deep
learning-based image inpainting method that is capable of covering a cleft lip
and generating a lip and nose without a cleft. Our experiments are conducted on
two real-world cleft lip datasets and are assessed by expert cleft lip surgeons
to demonstrate the feasibility of the proposed method.
- Abstract(参考訳): 口唇は専門医による外科的修復を必要とする先天性異常である。
外科医は手術を行うための広範な経験と理論的知識を有しなければならず、手術成績を改善するために外科医を指導するための人工知能(AI)法が提案されている。
もしAIを使って口唇の修復がどのようなものかを予測することができれば、外科医はそれを使って外科的テクニックを調整し、その結果を改善することができる。
患者のプライバシを保護しながら,このアイデアの実現可能性を探るため,口唇を覆い,口唇や鼻を口蓋なしで生成できる深層学習型イメージインペインティング手法を提案する。
本実験は, 2つの実世界の口唇データセットを用いて実施し, 提案法の有効性を示すために, 専門家口唇外科医によって評価された。
関連論文リスト
- VS-Assistant: Versatile Surgery Assistant on the Demand of Surgeons [29.783300422432763]
外科医の意図を正確に理解できるVersatile Surgery Assistant (VS-Assistant)を提案する。
我々は,VS-Assistantが外科的意図を理解できるように,外科的ケア・チューニング戦略を考案した。
論文 参考訳(メタデータ) (2024-05-14T02:05:36Z) - Hypergraph-Transformer (HGT) for Interactive Event Prediction in
Laparoscopic and Robotic Surgery [50.3022015601057]
腹腔内ビデオから外科的ワークフローの重要なインタラクティブな側面を理解し,予測できる予測型ニューラルネットワークを提案する。
我々は,既存の手術用データセットとアプリケーションに対するアプローチを検証し,アクション・トリプレットの検出と予測を行った。
この結果は、非構造的な代替案と比較して、我々のアプローチの優位性を示している。
論文 参考訳(メタデータ) (2024-02-03T00:58:05Z) - Toward a Surgeon-in-the-Loop Ophthalmic Robotic Apprentice using Reinforcement and Imitation Learning [18.72371138886818]
眼内白内障手術における外科医中心の自律エージェントに対する画像誘導アプローチを提案する。
外科医の行動と嗜好をトレーニングプロセスに統合することにより、ロボットは個々の外科医のユニークなテクニックを暗黙的に学習し、適応することができる。
論文 参考訳(メタデータ) (2023-11-29T15:00:06Z) - CAT-ViL: Co-Attention Gated Vision-Language Embedding for Visual
Question Localized-Answering in Robotic Surgery [14.52406034300867]
手術用視覚質問定位回答システム(VQLA)は、医療学生やジュニア外科医が記録された手術ビデオから学び、理解するのに役立ちます。
手術シナリオにおけるVQLAに対するCAT-ViL(Co-Attention gaTed Vision-Language)を組み込んだエンドツーエンドトランスフォーマを提案する。
提案手法は,外科的シーン理解のための有望なソリューションを提供し,外科的訓練のための人工知能(AI)ベースのVQLAシステムにおける第一歩を開拓する。
論文 参考訳(メタデータ) (2023-07-11T11:35:40Z) - INCLG: Inpainting for Non-Cleft Lip Generation with a Multi-Task Image
Processing Network [18.141737818156265]
我々は,口唇画像の訓練を必要とせず,画像の塗り絵を用いたソフトウェア・フレームワークを設計する。
顔画像と顔のランドマークの両方を予測できる新しいマルチタスクアーキテクチャを実装した。
ソフトウェアはPyTorchで実装されており、予測速度の速いコンシューマレベルのカラー画像で使用することができる。
論文 参考訳(メタデータ) (2023-05-17T21:53:11Z) - Live image-based neurosurgical guidance and roadmap generation using
unsupervised embedding [53.992124594124896]
本稿では,注釈付き脳外科ビデオの大規模なデータセットを活用するライブ画像のみのガイダンスを提案する。
生成されたロードマップは、トレーニングセットの手術で取られた一般的な解剖学的パスをエンコードする。
166例の腹腔鏡下腺摘出術を施行し,本法の有効性について検討した。
論文 参考訳(メタデータ) (2023-03-31T12:52:24Z) - Learning-Based Keypoint Registration for Fetoscopic Mosaicking [65.02392513942533]
ツイン・トゥ・ツイン輸血症候群(TTTS)では、単子葉胎盤の血管系異常な血管性無痛が両胎児の間に不均一な血流を生じさせる。
本研究では,フィールド・オブ・ビュー展開のためのフェトスコープフレーム登録のための学習ベースフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-26T21:21:12Z) - Quantification of Robotic Surgeries with Vision-Based Deep Learning [45.165919577877695]
本稿では,手術中に録画されたビデオのみを対象とする統合型ディープラーニングフレームワークRoboformerを提案する。
我々は,ミニマル侵襲型ロボット手術において,一般的な2種類のステップの4つのビデオベースデータセットに対して,我々の枠組みを検証した。
論文 参考訳(メタデータ) (2022-05-06T06:08:35Z) - CholecTriplet2021: A benchmark challenge for surgical action triplet
recognition [66.51610049869393]
腹腔鏡下手術における三肢の認識のためにMICCAI 2021で実施した内視鏡的視力障害であるColecTriplet 2021を提案する。
課題の参加者が提案する最先端の深層学習手法の課題設定と評価について述べる。
4つのベースライン法と19の新しいディープラーニングアルゴリズムが提示され、手術ビデオから直接手術行動三重項を認識し、平均平均精度(mAP)は4.2%から38.1%である。
論文 参考訳(メタデータ) (2022-04-10T18:51:55Z) - Can We Read Speech Beyond the Lips? Rethinking RoI Selection for Deep
Visual Speech Recognition [90.61063126619182]
我々は、最先端の音声認識モデルを用いて、異なる顔領域の効果を評価する。
口腔外顔面領域からの情報、上面でさえも、常にVSRの性能に寄与することが判明した。
論文 参考訳(メタデータ) (2020-03-06T13:52:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。