論文の概要: PINEAPPLE: Personifying INanimate Entities by Acquiring Parallel
Personification data for Learning Enhanced generation
- arxiv url: http://arxiv.org/abs/2209.07752v1
- Date: Fri, 16 Sep 2022 07:16:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-19 11:42:07.898565
- Title: PINEAPPLE: Personifying INanimate Entities by Acquiring Parallel
Personification data for Learning Enhanced generation
- Title(参考訳): PINEAPPLE:学習能力向上のための並列人格化データ取得による個人集団の同定
- Authors: Sedrick Scott Keh, Kevin Lu, Varun Gangal, Steven Y. Feng, Harsh
Jhamtani, Malihe Alikhani, Eduard Hovy
- Abstract要約: PINEAPPLE:学習強化世代のための並列パーソナライゼーションデータを取得することで、Iimate Entitiesをパーソナライズする。
我々は、PersonifCorpと呼ばれるパーソナライゼーションのコーパスを、自動的に生成されたパーソナライズされたパーソナライゼーションのリテラライズとともにキュレートする。
- 参考スコア(独自算出の注目度): 24.041772872031604
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A personification is a figure of speech that endows inanimate entities with
properties and actions typically seen as requiring animacy. In this paper, we
explore the task of personification generation. To this end, we propose
PINEAPPLE: Personifying INanimate Entities by Acquiring Parallel
Personification data for Learning Enhanced generation. We curate a corpus of
personifications called PersonifCorp, together with automatically generated
de-personified literalizations of these personifications. We demonstrate the
usefulness of this parallel corpus by training a seq2seq model to personify a
given literal input. Both automatic and human evaluations show that fine-tuning
with PersonifCorp leads to significant gains in personification-related
qualities such as animacy and interestingness. A detailed qualitative analysis
also highlights key strengths and imperfections of PINEAPPLE over baselines,
demonstrating a strong ability to generate diverse and creative
personifications that enhance the overall appeal of a sentence.
- Abstract(参考訳): 人格化(人格化、personification)とは、通常アニマシーを必要とすると見られる性質や行動を持つ無生物の実体を授ける言葉の一形態である。
本稿では,人格化生成の課題について考察する。
そこで本研究では,強化世代学習のための並列パーソナライズデータを取得することにより,非生物実体を擬人化するパイナップルを提案する。
我々は、PersonifCorpと呼ばれるパーソナライゼーションのコーパスを、自動的に生成されたパーソナライゼーションのリテラライズとともにキュレートする。
与えられたリテラル入力をパーソナライズするためにseq2seqモデルをトレーニングすることで、並列コーパスの有用性を示す。
自動評価と人的評価は、PersonifCorpによる微調整が、アニマシーや面白さなどの人格化関連品質を著しく向上させることを示している。
詳細な質的分析では、ベースライン上のPINEAPPLEの重要な強みと不完全性を強調し、文の全体的な魅力を高める多様で創造的なパーソナライズを生成する強力な能力を示している。
関連論文リスト
- How Do You Perceive My Face? Recognizing Facial Expressions in Multi-Modal Context by Modeling Mental Representations [5.895694050664867]
本稿では,単純な分類タスクを超越した新しい表情分類手法を提案する。
本モデルでは,認識された顔を正確に分類し,文脈で顔を観察する際,人間によって知覚される対応する心的表現を合成する。
本研究では,人間の心的表現の近似を効果的に生成することを示す。
論文 参考訳(メタデータ) (2024-09-04T09:32:40Z) - Look Hear: Gaze Prediction for Speech-directed Human Attention [49.81718760025951]
本研究は、人物が画像を見て、参照表現を聴いているときの注意の漸進的な予測に焦点を当てた。
我々は,参照表現において各単語が引き起こす人間の定着を予測できるリファラルトランスフォーマーモデル(ART)を開発した。
定量的および定性的な分析では、ARTはスキャンパス予測の既存の手法よりも優れているだけでなく、いくつかの人間の注意パターンを捉えているように見える。
論文 参考訳(メタデータ) (2024-07-28T22:35:08Z) - The Effects of Embodiment and Personality Expression on Learning in LLM-based Educational Agents [0.7499722271664147]
本研究は,人格表現と体格が,教育的会話エージェントにおける人格認識と学習にどのように影響するかを考察する。
教育アプリケーションに適したLLMベースの会話支援を統合することで、既存のパーソナリティ駆動型会話エージェントフレームワークを拡張した。
1)対話を通して人格を伝達する対話のみのモデル,(2)対話のみで人格を表現するアニメーション人間モデル,(3)対話と身体と顔のアニメーションを通して人格を表現するアニメーション人間モデル,の3つのモデルを評価する。
論文 参考訳(メタデータ) (2024-06-24T09:38:26Z) - Dynamic Typography: Bringing Text to Life via Video Diffusion Prior [73.72522617586593]
動的タイポグラフィー(Dynamic Typography)と呼ばれる自動テキストアニメーション方式を提案する。
意味的意味を伝えるために文字を変形させ、ユーザプロンプトに基づいて活気ある動きを注入する。
本手法は,ベクトルグラフィックス表現とエンドツーエンド最適化に基づくフレームワークを利用する。
論文 参考訳(メタデータ) (2024-04-17T17:59:55Z) - ChatAnything: Facetime Chat with LLM-Enhanced Personas [87.76804680223003]
多様な音声・外観生成のための音声(MoV)とディフューザ(MoD)の混合を提案する。
MoVでは,テキスト音声合成(TTS)アルゴリズムを様々な事前定義された音色で活用する。
近年普及しているテキスト・画像生成技術とトーキングヘッドアルゴリズムを組み合わせることで,音声オブジェクトの生成プロセスの合理化を図る。
論文 参考訳(メタデータ) (2023-11-12T08:29:41Z) - PsyCoT: Psychological Questionnaire as Powerful Chain-of-Thought for
Personality Detection [50.66968526809069]
PsyCoTと呼ばれる新しい人格検出手法を提案する。これは、個人がマルチターン対話方式で心理的質問を完遂する方法を模倣するものである。
実験の結果,PsyCoTは人格検出におけるGPT-3.5の性能とロバスト性を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2023-10-31T08:23:33Z) - PLIP: Language-Image Pre-training for Person Representation Learning [51.348303233290025]
個人表現学習のための新しい言語画像事前学習フレームワークPLIPを提案する。
このフレームワークを実装するために,SynTH-PEDESという画像テキストペアを用いた大規模人物データセットを構築した。
PLIPはこれらのタスクの既存のメソッドを大幅に改善するだけでなく、ゼロショットやドメインの一般化設定でも優れた機能を示している。
論文 参考訳(メタデータ) (2023-05-15T06:49:00Z) - Generating Holistic 3D Human Motion from Speech [97.11392166257791]
同期音声を用いた3次元全体体メッシュの高品質データセットを構築した。
次に,顔,体,手が別々にモデル化される新しい音声合成フレームワークを定義する。
論文 参考訳(メタデータ) (2022-12-08T17:25:19Z) - Learning Graph Representation of Person-specific Cognitive Processes
from Audio-visual Behaviours for Automatic Personality Recognition [17.428626029689653]
本稿では,対象対象者固有の認知を,個人固有のCNNアーキテクチャの形で表現することを提案する。
各人物固有のCNNは、ニューラルアーキテクチャサーチ(NAS)と新しい適応損失関数によって探索される。
実験の結果,生成したグラフ表現は対象者の性格特性とよく関連していることがわかった。
論文 参考訳(メタデータ) (2021-10-26T11:04:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。