論文の概要: Living Machines: A study of atypical animacy
- arxiv url: http://arxiv.org/abs/2005.11140v2
- Date: Thu, 19 Nov 2020 14:55:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 09:06:56.189087
- Title: Living Machines: A study of atypical animacy
- Title(参考訳): リビングマシン:非定型アニマシーの研究
- Authors: Mariona Coll Ardanuy, Federico Nanni, Kaspar Beelen, Kasra Hosseini,
Ruth Ahnert, Jon Lawrence, Katherine McDonough, Giorgia Tolfo, Daniel CS
Wilson, Barbara McGillivray
- Abstract要約: 我々は19世紀の英語文に基づく非定型アニマシー検出のための最初のデータセットを作成する。
本手法は,言語モデリングにおける最近の革新,特に BERT の文脈化された単語埋め込みを基盤としている。
提案手法は,非典型的アニマシーのより正確なキャラクタリゼーションを提供する。
- 参考スコア(独自算出の注目度): 6.4220844657257725
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper proposes a new approach to animacy detection, the task of
determining whether an entity is represented as animate in a text. In
particular, this work is focused on atypical animacy and examines the scenario
in which typically inanimate objects, specifically machines, are given animate
attributes. To address it, we have created the first dataset for atypical
animacy detection, based on nineteenth-century sentences in English, with
machines represented as either animate or inanimate. Our method builds on
recent innovations in language modeling, specifically BERT contextualized word
embeddings, to better capture fine-grained contextual properties of words. We
present a fully unsupervised pipeline, which can be easily adapted to different
contexts, and report its performance on an established animacy dataset and our
newly introduced resource. We show that our method provides a substantially
more accurate characterization of atypical animacy, especially when applied to
highly complex forms of language use.
- Abstract(参考訳): 本稿では,テキスト中のエンティティがアニメーションとして表現されているかどうかを判断するタスクである,アニマシー検出に対する新しいアプローチを提案する。
特に、この研究は非典型的アニマシーに焦点を当て、通常無生物、特に機械がアニメーター属性を与えられるシナリオを検証している。
これを解決するために、我々は19世紀の英語の文に基づいて、非定型的アニマシー検出のための最初のデータセットを作成しました。
本手法は,最近の言語モデル,特にbert文脈化単語埋め込みの革新を基盤とし,単語のきめ細かい文脈特性をよりよく把握する。
異なるコンテキストに容易に適応可能な、完全に教師なしのパイプラインを示し、確立されたanimacyデータセットと新たに導入されたリソースでそのパフォーマンスを報告します。
本手法は,特に高度に複雑な言語形態に適用した場合に,非定型的異性性をかなり正確に評価できることを示す。
関連論文リスト
- Dynamic Typography: Bringing Text to Life via Video Diffusion Prior [73.72522617586593]
動的タイポグラフィー(Dynamic Typography)と呼ばれる自動テキストアニメーション方式を提案する。
意味的意味を伝えるために文字を変形させ、ユーザプロンプトに基づいて活気ある動きを注入する。
本手法は,ベクトルグラフィックス表現とエンドツーエンド最適化に基づくフレームワークを利用する。
論文 参考訳(メタデータ) (2024-04-17T17:59:55Z) - Iterative Motion Editing with Natural Language [23.836693717924845]
テキスト間拡散モデルはテキストプロンプトからリアルなアニメーションを生成することができるが、微粒なモーション編集制御はサポートしていない。
本稿では,既存の文字アニメーションに局所的な編集を反復的に指定するために自然言語を用いる手法を提案する。
本システムは,アニメーターの編集意図を尊重する動作編集を行い,オリジナルアニメーションに忠実であり,リアルなキャラクターアニメーション結果が得られる。
論文 参考訳(メタデータ) (2023-12-15T22:38:24Z) - Real-time Animation Generation and Control on Rigged Models via Large
Language Models [50.034712575541434]
本稿では,自然言語入力を用いたリップモデル上でのリアルタイムアニメーション制御と生成のための新しい手法を提案する。
大規模言語モデル(LLM)をUnityに組み込んで構造化テキストを出力し、多種多様なリアルなアニメーションに解析する。
論文 参考訳(メタデータ) (2023-10-27T01:36:35Z) - Unsupervised Learning of Style-Aware Facial Animation from Real Acting
Performances [3.95944314850151]
本稿では, ブレンド形状, 動的テクスチャ, ニューラルレンダリングに基づく写真リアルな頭部モデルのテキスト/音声駆動アニメーションのための新しい手法を提案する。
本手法は,テキストや音声をアニメーションパラメータの列に変換する条件付きCNNに基づいている。
リアルなリアルタイムレンダリングのために、私たちは、改良された色と前景マットを演算することで、ピクセル化ベースのレンダリングを洗練するU-Netを訓練します。
論文 参考訳(メタデータ) (2023-06-16T17:58:04Z) - Learning Action-Effect Dynamics from Pairs of Scene-graphs [50.72283841720014]
本稿では,画像のシーングラフ表現を利用して,自然言語で記述された行動の効果を推論する手法を提案する。
提案手法は,既存のモデルと比較して,性能,データ効率,一般化能力の点で有効である。
論文 参考訳(メタデータ) (2022-12-07T03:36:37Z) - Language-Guided Face Animation by Recurrent StyleGAN-based Generator [87.56260982475564]
本研究では,静的顔画像のアニメーション化を目的とした,言語指導型顔画像の新しいタスクについて検討する。
本稿では,言語から一連の意味情報と動作情報を抽出し,学習済みのStyleGANに視覚情報と共に供給し,高品質なフレームを生成するための繰り返し動作生成手法を提案する。
論文 参考訳(メタデータ) (2022-08-11T02:57:30Z) - CAST: Character labeling in Animation using Self-supervision by Tracking [6.57697269659615]
カートゥーンやアニメーションのドメインビデオは、実写の画像やビデオとは大きく異なる特徴を持っている。
現在のコンピュータビジョンとディープラーニングソリューションは、自然画像で訓練されたため、アニメーションコンテンツでは失敗することが多い。
本稿では,特定のアニメーションコンテンツに適した意味表現を洗練させる手法を提案する。
論文 参考訳(メタデータ) (2022-01-19T14:21:43Z) - COBE: Contextualized Object Embeddings from Narrated Instructional Video [52.73710465010274]
そこで本稿では,教師ビデオの自動書き起こしからコンテキスト適応型オブジェクト埋め込みを学習するための新しいフレームワークを提案する。
言語の意味的・構成的構造を視覚的検知器を訓練し,オブジェクトとその関連するナレーションの文脈的単語埋め込みを予測する。
実験の結果,検出器は多種多様なコンテキストオブジェクト情報を予測し,少数ショットおよびゼロショット学習の設定において極めて有効であることがわかった。
論文 参考訳(メタデータ) (2020-07-14T19:04:08Z) - Spatio-Temporal Graph for Video Captioning with Knowledge Distillation [50.034189314258356]
空間と時間におけるオブジェクトの相互作用を利用したビデオキャプションのためのグラフモデルを提案する。
我々のモデルは解釈可能なリンクを構築し、明示的な視覚的グラウンドを提供することができる。
オブジェクト数の変動による相関を回避するため,オブジェクト認識型知識蒸留機構を提案する。
論文 参考訳(メタデータ) (2020-03-31T03:58:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。