論文の概要: Stroke Correspondence by Labeling Closed Areas
- arxiv url: http://arxiv.org/abs/2108.04393v1
- Date: Tue, 10 Aug 2021 00:56:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-12 00:44:07.013767
- Title: Stroke Correspondence by Labeling Closed Areas
- Title(参考訳): 閉区間のラベル付けによるストローク対応
- Authors: Ryoma Miyauchi, Tsukasa Fukusato, Haoran Xie, Kazunori Miyata
- Abstract要約: ベクトル化処理を伴わない文字画像(キーフレーム)間のストローク対応を推定する手法を提案する。
提案手法の有効性を,ユーザ・スタディを実行し,提案手法と従来手法との比較により示す。
- 参考スコア(独自算出の注目度): 9.065498002850138
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Constructing stroke correspondences between keyframes is one of the most
important processes in the production pipeline of hand-drawn inbetweening
frames. This process requires time-consuming manual work imposing a tremendous
burden on the animators. We propose a method to estimate stroke correspondences
between raster character images (keyframes) without vectorization processes.
First, the proposed system separates the closed areas in each keyframe and
estimates the correspondences between closed areas by using the characteristics
of shape, depth, and closed area connection. Second, the proposed system
estimates stroke correspondences from the estimated closed area
correspondences. We demonstrate the effectiveness of our method by performing a
user study and comparing the proposed system with conventional approaches.
- Abstract(参考訳): キーフレーム間のストローク対応を構築することは、手描きの中間フレームの生産パイプラインにおいて最も重要なプロセスの1つである。
このプロセスには、アニメーターに多大な負担を課す、時間を要する手動作業が必要です。
ベクトル化処理なしでラスタ文字画像(キーフレーム)間のストローク対応を推定する手法を提案する。
まず,各鍵フレーム内の閉領域を分離し,形状,深さ,閉領域接続の特性を用いて閉領域間の対応性を推定する。
第2に,提案システムは,推定閉領域対応からストローク対応を推定する。
提案手法の有効性を,ユーザによる研究を行い,提案手法と従来手法との比較により示す。
関連論文リスト
- Introducing Gating and Context into Temporal Action Detection [0.8987776881291144]
時間的行動検出(TAD)は、動作の重なり合いと動作の変動が原因で依然として困難である。
最近の知見から,TAD性能は自己保持機構よりもトランスの構造設計に依存することが示唆された。
本稿では,軽量かつ効果的な操作による特徴抽出プロセスを提案する。
論文 参考訳(メタデータ) (2024-09-06T11:52:42Z) - Thin-Plate Spline-based Interpolation for Animation Line Inbetweening [54.69811179222127]
チャンファー距離(CD: Chamfer Distance)は、一般に間欠的な性能を評価するために用いられる。
薄板スプライン変換を応用したアニメーションラインインテタイニングの簡易かつ効果的な手法を提案する。
提案手法は, 流動性を高めた高品質な結果を提供することにより, 既存の手法よりも優れる。
論文 参考訳(メタデータ) (2024-08-17T08:05:31Z) - Motion-Aware Video Frame Interpolation [49.49668436390514]
我々は、連続するフレームから中間光の流れを直接推定する動き対応ビデオフレーム補間(MA-VFI)ネットワークを導入する。
受容場が異なる入力フレームからグローバルな意味関係と空間的詳細を抽出するだけでなく、必要な計算コストと複雑さを効果的に削減する。
論文 参考訳(メタデータ) (2024-02-05T11:00:14Z) - Self-Supervised Correspondence Estimation via Multiview Registration [88.99287381176094]
ビデオは、視覚学習に必要な同期時間一貫性を提供します。
近年のアプローチでは、この信号を用いて、近接フレーム対からの対応推定を学習している。
短いRGB-Dビデオシーケンスにおけるマルチビュー一貫性から学習する対応推定のための自己教師付きアプローチを提案する。
論文 参考訳(メタデータ) (2022-12-06T18:59:02Z) - Temporally-Consistent Surface Reconstruction using Metrically-Consistent
Atlases [131.50372468579067]
そこで本稿では,時間変化点雲列から時間一貫性のある面列を復元する手法を提案する。
我々は、再構成された表面をニューラルネットワークによって計算されたアトラスとして表現し、フレーム間の対応性を確立することができる。
当社のアプローチは、いくつかの挑戦的なデータセットにおいて、最先端のものよりも優れています。
論文 参考訳(メタデータ) (2021-11-12T17:48:25Z) - Modelling Neighbor Relation in Joint Space-Time Graph for Video
Correspondence Learning [53.74240452117145]
本稿では、ラベルなしビデオから信頼できる視覚対応を学習するための自己教師付き手法を提案する。
接続時空間グラフでは,ノードがフレームからサンプリングされたグリッドパッチであり,2種類のエッジによってリンクされる。
学習した表現は、様々な視覚的タスクにおいて最先端の自己監督手法よりも優れています。
論文 参考訳(メタデータ) (2021-09-28T05:40:01Z) - Pose Correction Algorithm for Relative Frames between Keyframes in SLAM [20.579218922577244]
相対的なフレームのポーズは通常、オンラインアプリケーションを達成するためのより高速なアルゴリズムのために犠牲にされている。
本稿では,更新後のランドマーク間の相対的フレームを補正するアルゴリズムを提案する。
提案アルゴリズムは既存のSLAMシステムと容易に統合できるように設計されている。
論文 参考訳(メタデータ) (2020-09-18T09:59:10Z) - Deep Sketch-guided Cartoon Video Inbetweening [24.00033622396297]
本研究では,ユーザスケッチに案内されたアニメーションの動きに追従しながら,2つの入力から色情報を取得することで,マンガ映像を生成するフレームワークを提案する。
フレームとスケッチの対応性を明示的に考慮することにより,他の画像合成法よりも高品質な結果が得られる。
論文 参考訳(メタデータ) (2020-08-10T14:22:04Z) - Efficient Semantic Video Segmentation with Per-frame Inference [117.97423110566963]
本研究では,フレームごとの効率的なセマンティックビデオセグメンテーションを推論プロセス中に処理する。
そこで我々は,コンパクトモデルと大規模モデルのパフォーマンスギャップを狭めるために,新しい知識蒸留法を設計した。
論文 参考訳(メタデータ) (2020-02-26T12:24:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。