論文の概要: StructInbet: Integrating Explicit Structural Guidance into Inbetween Frame Generation
- arxiv url: http://arxiv.org/abs/2507.13377v1
- Date: Tue, 15 Jul 2025 01:01:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-21 20:43:26.048061
- Title: StructInbet: Integrating Explicit Structural Guidance into Inbetween Frame Generation
- Title(参考訳): StructInbet: 明示的な構造誘導をフレーム生成に統合する
- Authors: Zhenglin Pan, Haoran Xie,
- Abstract要約: 本稿では,明示的な構造誘導による制御可能なトランジションを生成するためのインベッシングシステムであるStructInbetを提案する。
我々は、前回と後回の両方から視覚的アイデンティティを取り入れた時間的注意機構を採用し、キャラクタの外観の整合性を確保する。
- 参考スコア(独自算出の注目度): 3.528466385159056
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we propose StructInbet, an inbetweening system designed to generate controllable transitions over explicit structural guidance. StructInbet introduces two key contributions. First, we propose explicit structural guidance to the inbetweening problem to reduce the ambiguity inherent in pixel trajectories. Second, we adopt a temporal attention mechanism that incorporates visual identity from both the preceding and succeeding keyframes, ensuring consistency in character appearance.
- Abstract(参考訳): 本稿では,明示的な構造的ガイダンスによる制御可能な遷移を生成するために設計されたインベットシステムであるStructInbetを提案する。
StructInbetには2つの重要なコントリビューションがある。
まず,画素軌跡に固有のあいまいさを軽減するために,インベントワイニング問題に対する明示的な構造的ガイダンスを提案する。
第2に,先行および後続のキーフレームからの視覚的アイデンティティを取り入れた時間的アテンション機構を採用し,キャラクタの外観の整合性を確保する。
関連論文リスト
- ffstruc2vec: Flat, Flexible and Scalable Learning of Node Representations from Structural Identities [0.0]
本稿では、構造的アイデンティティを保持するノード埋め込みベクトルを学習するためのスケーラブルなディープラーニングフレームワークffstruc2vecを紹介する。
フラットで効率的なアーキテクチャは、さまざまなタイプの構造パターンをキャプチャする際の高い柔軟性を可能にし、さまざまなダウンストリームアプリケーションタスクへの広範な適応性を可能にします。
提案手法は, 多様な教師なしタスク, 教師なしタスクにまたがる既存手法を, 実用アプリケーションにおいて著しく上回っている。
論文 参考訳(メタデータ) (2025-04-01T18:47:16Z) - "Principal Components" Enable A New Language of Images [79.45806370905775]
証明可能なPCAのような構造を潜在トークン空間に組み込む新しい視覚トークン化フレームワークを導入する。
提案手法は、最先端の再構築性能を実現し、人間の視覚システムとの整合性を向上する。
論文 参考訳(メタデータ) (2025-03-11T17:59:41Z) - Composing or Not Composing? Towards Distributional Construction Grammars [47.636049672406145]
言語発話の意味を構築することは、構成過程に基づいて段階的に、段階的に行われる。
したがって、両方のアプローチをまとめるフレームワークを提案する必要がある。
本稿では, 構築文法に基づく手法を提案し, この枠組みを完成させ, それらのメカニズムを考察する。
論文 参考訳(メタデータ) (2024-12-10T11:17:02Z) - Learning to Model Graph Structural Information on MLPs via Graph Structure Self-Contrasting [50.181824673039436]
本稿では,グラフ構造情報をメッセージパッシングなしで学習するグラフ構造自己コントラスト(GSSC)フレームワークを提案する。
提案するフレームワークは,構造情報を事前知識として暗黙的にのみ組み込む,MLP(Multi-Layer Perceptrons)に基づいている。
これはまず、近傍の潜在的非形式的あるいはノイズの多いエッジを取り除くために構造的スペーシングを適用し、その後、スペーシングされた近傍で構造的自己コントラストを行い、ロバストなノード表現を学ぶ。
論文 参考訳(メタデータ) (2024-09-09T12:56:02Z) - Compositional Structures in Neural Embedding and Interaction Decompositions [101.40245125955306]
ニューラルネットワークにおけるベクトル埋め込みにおける線形代数構造間の基本的な対応について述べる。
相互作用分解」の観点から構成構造の特徴づけを導入する。
モデルの表現の中にそのような構造が存在するためには、必要かつ十分な条件を確立する。
論文 参考訳(メタデータ) (2024-07-12T02:39:50Z) - Learning Correlation Structures for Vision Transformers [93.22434535223587]
構造自己注意(StructSA)と呼ばれる新しい注意機構を導入する。
我々は、畳み込みによるキー-クエリ相関の時空間構造を認識して注意マップを生成する。
これは、シーンレイアウト、オブジェクトの動き、オブジェクト間の関係など、画像やビデオのリッチな構造パターンを効果的に活用する。
論文 参考訳(メタデータ) (2024-04-05T07:13:28Z) - ViStruct: Visual Structural Knowledge Extraction via Curriculum Guided
Code-Vision Representation [82.88378582161717]
最先端の視覚言語モデル(VLM)は、構造的知識抽出において限られた性能を持つ。
本稿では,視覚的構造的知識抽出のためのVLM学習フレームワークViStructを提案する。
論文 参考訳(メタデータ) (2023-11-22T09:23:34Z) - StrAE: Autoencoding for Pre-Trained Embeddings using Explicit Structure [5.2869308707704255]
StrAEは構造化オートエンコーダフレームワークであり、明示的な構造に厳格に固執することで、マルチレベル表現の効果的な学習を可能にする。
本研究の結果は,入力として提供される構造に直接的な関連性があることを示し,既存のツリーモデルではそうではないことを示す。
次に、StrAEを拡張して、単純なローカライズ・マージアルゴリズムを用いてモデルが独自の構成を定義する。
論文 参考訳(メタデータ) (2023-05-09T16:20:48Z) - Learning to Incorporate Structure Knowledge for Image Inpainting [20.93448933499842]
本稿では,画像の描画を支援するために,画像構造知識を取り入れたマルチタスク学習フレームワークを開発する。
第一のアイデアは、共有ジェネレータをトレーニングして、破損した画像と対応する構造を同時に完成させることである。
また,学習した構造特徴を塗布プロセスに明示的に埋め込む構造埋め込み方式も導入する。
論文 参考訳(メタデータ) (2020-02-11T02:22:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。