論文の概要: An Approach for Air Drawing Using Background Subtraction and Contour Extraction
- arxiv url: http://arxiv.org/abs/2503.01497v1
- Date: Mon, 03 Mar 2025 13:08:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:22:11.429127
- Title: An Approach for Air Drawing Using Background Subtraction and Contour Extraction
- Title(参考訳): 背景部分抽出と輪郭抽出を用いた空気描画の一手法
- Authors: Ramkrishna Acharya,
- Abstract要約: 本研究では,空気中の指を動かして画面に描画する画像処理技術を用いて,空気描画のための新しい手法を提案する。
このアプローチは、新しい入力方法として手話、空気中の描画、空気中の「書き方」といった幅広い応用に有効である。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: In this paper, we propose a novel approach for air drawing that uses image processing techniques to draw on the screen by moving fingers in the air. This approach benefits a wide range of applications such as sign language, in-air drawing, and 'writing' in the air as a new way of input. The approach starts with preparing ROI (Region of Interest) background images by taking a running average in initial camera frames and later subtracting it from the live camera frames to get a binary mask image. We calculate the pointer's position as the top of the contour on the binary image. When drawing a circle on the canvas in that position, it simulates the drawing. Furthermore, we combine the pre-trained Tesseract model for OCR purposes. To address the false contours, we perform hand detection based on the haar cascade before performing the background subtraction. In an experimental setup, we achieved a latency of only 100ms in air drawing. The code used to this research are available in GitHub as https://github.com/q-viper/Contour-Based-Writing
- Abstract(参考訳): 本稿では,画像処理技術を用いて,指を空中に動かして画面に描画する空気描画手法を提案する。
このアプローチは、新しい入力方法として手話、空気中の描画、空気中の「書き方」といった幅広い応用に有効である。
このアプローチは、最初のカメラフレームでランニング平均を取り、後にライブカメラフレームからそれを引き引いてバイナリマスクイメージを取得することによって、ROI(Region of Interest)バックグラウンドイメージを作成することから始まります。
二元画像上の輪郭の最上部としてのポインタの位置を計算する。
その位置でキャンバスに円を描くと、描画をシミュレートする。
さらに,OCR用に事前学習したテッセラクトモデルを組み合わせる。
疑似輪郭に対処するために,背景の減算を行う前に,ハールカスケードに基づいて手検出を行う。
実験では,空気描画において100ミリ秒の遅延を達成できた。
この研究に使われるコードはGitHubでhttps://github.com/q-viper/Contour-Based-Writingとして公開されている。
関連論文リスト
- Block and Detail: Scaffolding Sketch-to-Image Generation [65.56590359051634]
アーティストの反復的な洗練プロセスと整合する新しいスケッチ・ツー・イメージ・ツールを提案する。
私たちのツールは、ブロックされたストロークをスケッチして、オブジェクトの配置や形を粗く表現し、詳細なストロークを表現して、形やシルエットを洗練します。
反復過程の任意の点において、そのようなスケッチから高忠実度画像を生成するための2パスアルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-02-28T07:09:31Z) - Stroke-based Neural Painting and Stylization with Dynamically Predicted
Painting Region [66.75826549444909]
ストロークベースのレンダリングは、ストロークのセットで画像を再現することを目的としている。
本研究では,現在のキャンバスに基づいて絵画領域を予測する合成ニューラルネットワークを提案する。
我々は、新しい微分可能な距離変換損失を伴って、ストロークベースのスタイル転送に拡張する。
論文 参考訳(メタデータ) (2023-09-07T06:27:39Z) - Sketch-Guided Text-to-Image Diffusion Models [57.12095262189362]
本稿では,事前訓練されたテキスト-画像拡散モデルを示す普遍的なアプローチを提案する。
本手法では,タスク専用のモデルや専用エンコーダをトレーニングする必要はない。
我々は、スケッチ・ツー・イメージの翻訳タスクに特に焦点をあて、画像を生成する堅牢で表現力のある方法を明らかにする。
論文 参考訳(メタデータ) (2022-11-24T18:45:32Z) - OutCast: Outdoor Single-image Relighting with Cast Shadows [19.354412901507175]
本研究では,屋外画像のリライティング手法を提案する。
本手法は,1枚の画像から任意の新しい照明方向の鋳造影を予測することに焦点を当てる。
提案手法は,1つの画像のみを入力として,初めて最先端のリライト結果を実現する。
論文 参考訳(メタデータ) (2022-04-20T09:24:14Z) - Semantic keypoint-based pose estimation from single RGB frames [64.80395521735463]
一つのRGB画像からオブジェクトの連続6-DoFポーズを推定する手法を提案する。
このアプローチは、畳み込みネットワーク(convnet)によって予測されるセマンティックキーポイントと、変形可能な形状モデルを組み合わせる。
提案手法は,インスタンスベースのシナリオとクラスベースのシナリオの両方に対して,6-DoFオブジェクトのポーズを正確に復元できることを示す。
論文 参考訳(メタデータ) (2022-04-12T15:03:51Z) - Contextual Attention Mechanism, SRGAN Based Inpainting System for
Eliminating Interruptions from Images [2.894944733573589]
完全な機械学習アプローチを用いて,画像のインペイントのためのエンドツーエンドパイプラインを提案する。
まず、YOLOモデルを使用して、画像から削除したいオブジェクトを自動的に識別し、ローカライズします。
その後、領域を埋めるためにコンテキストアテンション法を用いたGANモデルにマスク画像とオリジナル画像を提供する。
論文 参考訳(メタデータ) (2022-04-06T05:51:04Z) - SketchEdit: Mask-Free Local Image Manipulation with Partial Sketches [95.45728042499836]
マスクレス局所画像操作という,スケッチに基づく画像操作の新しいパラダイムを提案する。
本モデルでは,対象の修正領域を自動的に予測し,構造型ベクトルにエンコードする。
ジェネレータは、スタイルベクトルとスケッチに基づいて、新しいイメージコンテンツを合成する。
論文 参考訳(メタデータ) (2021-11-30T02:42:31Z) - Face Sketch Synthesis with Style Transfer using Pyramid Column Feature [22.03011875851739]
写真から顔のスケッチを合成するためのディープニューラルネットワークに基づく新しいフレームワークを提案する。
まず、顔の形状と重要な顔の特徴を概説する内容画像を生成する。
その後、スケッチの詳細を強化するためにテクスチャとシェーディングが追加される。
論文 参考訳(メタデータ) (2020-09-18T08:15:55Z) - Coarse-to-Fine Gaze Redirection with Numerical and Pictorial Guidance [74.27389895574422]
本稿では,数値誘導と画像誘導の両方を利用した新しい視線リダイレクトフレームワークを提案する。
提案手法は,画像品質とリダイレクト精度の両方の観点から,最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2020-04-07T01:17:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。