論文の概要: When Language Models Fall in Love: Animacy Processing in Transformer
Language Models
- arxiv url: http://arxiv.org/abs/2310.15004v1
- Date: Mon, 23 Oct 2023 14:57:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 19:27:21.960372
- Title: When Language Models Fall in Love: Animacy Processing in Transformer
Language Models
- Title(参考訳): 言語モデルが恋に落ちたとき:トランスフォーマー言語モデルにおけるアニメーション処理
- Authors: Michael Hanna, Yonatan Belinkov, Sandro Pezzelle
- Abstract要約: 我々は,トランスフォーマー言語モデル (LM) が,アニマシーが典型的である実体を提示するとき,人間のように振る舞うことを示す。
また、愛のピーナッツのような非典型的なアニメーターの物語を提示しても、LMは適応することを示した。
我々は、LMがアニマシーについて学べる限られた信号にもかかわらず、それらが実際に英語で利用可能な関連する語彙的意味ニュアンスに敏感である、と結論付けた。
- 参考スコア(独自算出の注目度): 38.79717627047192
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Animacy - whether an entity is alive and sentient - is fundamental to
cognitive processing, impacting areas such as memory, vision, and language.
However, animacy is not always expressed directly in language: in English it
often manifests indirectly, in the form of selectional constraints on verbs and
adjectives. This poses a potential issue for transformer language models (LMs):
they often train only on text, and thus lack access to extralinguistic
information from which humans learn about animacy. We ask: how does this impact
LMs' animacy processing - do they still behave as humans do? We answer this
question using open-source LMs. Like previous studies, we find that LMs behave
much like humans when presented with entities whose animacy is typical.
However, we also show that even when presented with stories about atypically
animate entities, such as a peanut in love, LMs adapt: they treat these
entities as animate, though they do not adapt as well as humans. Even when the
context indicating atypical animacy is very short, LMs pick up on subtle clues
and change their behavior. We conclude that despite the limited signal through
which LMs can learn about animacy, they are indeed sensitive to the relevant
lexical semantic nuances available in English.
- Abstract(参考訳): 実体が生きているかどうかに関わらず、アニメーションは認知処理の基本であり、記憶、視覚、言語などの領域に影響を与える。
英語では、動詞や形容詞に対する選択的制約という形で間接的に現れることが多い。
これはトランスフォーマー言語モデル(LM)の潜在的な問題であり、しばしばテキストでのみ訓練されるため、人間がアニメーションについて学ぶ言語外情報にアクセスできない。
これはLMのアニメーション処理にどのように影響しますか?
我々はオープンソースのLMを用いてこの問題に答える。
従来の研究と同様に、ALMは人間のように振る舞うことがわかりました。
しかし、愛のピーナッツのような非定型的なアニメート実体に関するストーリーを提示しても、lsmは適応する:これらの実体をアニメートとして扱うが、人間ほど適応しない。
非典型的アニマシーを示す文脈が非常に短くても、LMは微妙な手がかりを拾い上げ、行動を変える。
我々は、LMがアニマシーについて学べる限られた信号にもかかわらず、それらが実際に英語で利用可能な関連する語彙意味ニュアンスに敏感であると結論付けた。
関連論文リスト
- Animate, or Inanimate, That is the Question for Large Language Models [1.4474137122906168]
人間の認知の本質は、アニマシーの概念と深く絡み合っている。
本稿では,デジタルモデルが人間と同じような方法でアニメーションを処理できるか,という問いに答える。
我々は、アニメーション、不一致、通常、見知らぬコンテキストを用いて、異なるLSMを探索する。
その結果, LLMはテキストデータに基づいて主に訓練されているものの, 典型的なアニメートや不アニメートな実体に直面すると, 人間のように振る舞うことが判明した。
論文 参考訳(メタデータ) (2024-08-12T17:48:55Z) - Dynamic Typography: Bringing Text to Life via Video Diffusion Prior [73.72522617586593]
動的タイポグラフィー(Dynamic Typography)と呼ばれる自動テキストアニメーション方式を提案する。
意味的意味を伝えるために文字を変形させ、ユーザプロンプトに基づいて活気ある動きを注入する。
本手法は,ベクトルグラフィックス表現とエンドツーエンド最適化に基づくフレームワークを利用する。
論文 参考訳(メタデータ) (2024-04-17T17:59:55Z) - MotionScript: Natural Language Descriptions for Expressive 3D Human Motions [8.050271017133076]
MotionScriptはモーション・トゥ・テキスト変換アルゴリズムであり、人体の動きの自然言語表現である。
実験により、テキスト・トゥ・モーションタスクに適用されたMotionScript記述により、大規模な言語モデルが、以前は目に見えなかった複雑な動作を生成できることが実証された。
論文 参考訳(メタデータ) (2023-12-19T22:33:17Z) - Real-time Animation Generation and Control on Rigged Models via Large
Language Models [50.034712575541434]
本稿では,自然言語入力を用いたリップモデル上でのリアルタイムアニメーション制御と生成のための新しい手法を提案する。
大規模言語モデル(LLM)をUnityに組み込んで構造化テキストを出力し、多種多様なリアルなアニメーションに解析する。
論文 参考訳(メタデータ) (2023-10-27T01:36:35Z) - Do Language Models' Words Refer? [22.981391870419216]
我々は、言語モデル(LM)が、普通の言語利用者のように世界と相互作用しないと主張している。
LMへの入力が単にテキストの文字列であるとしても、それらは自然史を持つテキストの文字列であり、LMの単語を外部の世界と参照的に接触させるのに十分である。
論文 参考訳(メタデータ) (2023-08-10T13:39:40Z) - Enhancing Portuguese Sign Language Animation with Dynamic Timing and
Mouthing [4.077612575801748]
本稿では,ポルトガル語手話の口調アニメーションに着目し,手話間の遷移を動的に表現する手法を提案する。
ネイティブシグナーは動的遷移を伴うアニメーションを好んだが、理解率と知覚自然度スコアに有意な差は見つからなかった。
結果は、計算言語学、人間とコンピュータの相互作用、および署名アバターの合成アニメーションに影響を及ぼす。
論文 参考訳(メタデータ) (2023-07-12T12:25:03Z) - HUMANISE: Language-conditioned Human Motion Generation in 3D Scenes [54.61610144668777]
本稿では,3次元シーンで3次元人間の動きを生成できる新しいシーン・アンド・ランゲージ・コンディショニング・ジェネレーション・モデルを提案する。
実験により,我々のモデルは3次元シーンにおいて多様で意味的に一貫した人間の動きを生成できることを示した。
論文 参考訳(メタデータ) (2022-10-18T10:14:11Z) - Language-Guided Face Animation by Recurrent StyleGAN-based Generator [87.56260982475564]
本研究では,静的顔画像のアニメーション化を目的とした,言語指導型顔画像の新しいタスクについて検討する。
本稿では,言語から一連の意味情報と動作情報を抽出し,学習済みのStyleGANに視覚情報と共に供給し,高品質なフレームを生成するための繰り返し動作生成手法を提案する。
論文 参考訳(メタデータ) (2022-08-11T02:57:30Z) - PIGLeT: Language Grounding Through Neuro-Symbolic Interaction in a 3D
World [86.21137454228848]
我々はPIGLeTを物理力学モデルと別言語モデルに分類する。
PIGLeTは文を読み、次に何が起こるか神経的にシミュレートし、その結果を文字通りの記号表現を通して伝達する。
80%以上の英語の文から「次に何が起こるか」を正確に予測することができ、100倍以上のテキスト・テキスト・アプローチを10%以上上回っている。
論文 参考訳(メタデータ) (2021-06-01T02:32:12Z) - Living Machines: A study of atypical animacy [6.4220844657257725]
我々は19世紀の英語文に基づく非定型アニマシー検出のための最初のデータセットを作成する。
本手法は,言語モデリングにおける最近の革新,特に BERT の文脈化された単語埋め込みを基盤としている。
提案手法は,非典型的アニマシーのより正確なキャラクタリゼーションを提供する。
論文 参考訳(メタデータ) (2020-05-22T12:35:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。