論文の概要: PINEAPPLE: Personifying INanimate Entities by Acquiring Parallel
Personification data for Learning Enhanced generation
- arxiv url: http://arxiv.org/abs/2209.07752v1
- Date: Fri, 16 Sep 2022 07:16:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-19 11:42:07.898565
- Title: PINEAPPLE: Personifying INanimate Entities by Acquiring Parallel
Personification data for Learning Enhanced generation
- Title(参考訳): PINEAPPLE:学習能力向上のための並列人格化データ取得による個人集団の同定
- Authors: Sedrick Scott Keh, Kevin Lu, Varun Gangal, Steven Y. Feng, Harsh
Jhamtani, Malihe Alikhani, Eduard Hovy
- Abstract要約: PINEAPPLE:学習強化世代のための並列パーソナライゼーションデータを取得することで、Iimate Entitiesをパーソナライズする。
我々は、PersonifCorpと呼ばれるパーソナライゼーションのコーパスを、自動的に生成されたパーソナライズされたパーソナライゼーションのリテラライズとともにキュレートする。
- 参考スコア(独自算出の注目度): 24.041772872031604
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A personification is a figure of speech that endows inanimate entities with
properties and actions typically seen as requiring animacy. In this paper, we
explore the task of personification generation. To this end, we propose
PINEAPPLE: Personifying INanimate Entities by Acquiring Parallel
Personification data for Learning Enhanced generation. We curate a corpus of
personifications called PersonifCorp, together with automatically generated
de-personified literalizations of these personifications. We demonstrate the
usefulness of this parallel corpus by training a seq2seq model to personify a
given literal input. Both automatic and human evaluations show that fine-tuning
with PersonifCorp leads to significant gains in personification-related
qualities such as animacy and interestingness. A detailed qualitative analysis
also highlights key strengths and imperfections of PINEAPPLE over baselines,
demonstrating a strong ability to generate diverse and creative
personifications that enhance the overall appeal of a sentence.
- Abstract(参考訳): 人格化(人格化、personification)とは、通常アニマシーを必要とすると見られる性質や行動を持つ無生物の実体を授ける言葉の一形態である。
本稿では,人格化生成の課題について考察する。
そこで本研究では,強化世代学習のための並列パーソナライズデータを取得することにより,非生物実体を擬人化するパイナップルを提案する。
我々は、PersonifCorpと呼ばれるパーソナライゼーションのコーパスを、自動的に生成されたパーソナライゼーションのリテラライズとともにキュレートする。
与えられたリテラル入力をパーソナライズするためにseq2seqモデルをトレーニングすることで、並列コーパスの有用性を示す。
自動評価と人的評価は、PersonifCorpによる微調整が、アニマシーや面白さなどの人格化関連品質を著しく向上させることを示している。
詳細な質的分析では、ベースライン上のPINEAPPLEの重要な強みと不完全性を強調し、文の全体的な魅力を高める多様で創造的なパーソナライズを生成する強力な能力を示している。
関連論文リスト
- ChatAnything: Facetime Chat with LLM-Enhanced Personas [87.76804680223003]
多様な音声・外観生成のための音声(MoV)とディフューザ(MoD)の混合を提案する。
MoVでは,テキスト音声合成(TTS)アルゴリズムを様々な事前定義された音色で活用する。
近年普及しているテキスト・画像生成技術とトーキングヘッドアルゴリズムを組み合わせることで,音声オブジェクトの生成プロセスの合理化を図る。
論文 参考訳(メタデータ) (2023-11-12T08:29:41Z) - PsyCoT: Psychological Questionnaire as Powerful Chain-of-Thought for
Personality Detection [50.66968526809069]
PsyCoTと呼ばれる新しい人格検出手法を提案する。これは、個人がマルチターン対話方式で心理的質問を完遂する方法を模倣するものである。
実験の結果,PsyCoTは人格検出におけるGPT-3.5の性能とロバスト性を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2023-10-31T08:23:33Z) - Visual Grounding Helps Learn Word Meanings in Low-Data Regimes [53.7168869241458]
現代のニューラル言語モデル(LM)は、人間の文の生成と理解をモデル化するための強力なツールである。
しかし、これらの結果を得るためには、LMは明らかに非人間的な方法で訓練されなければならない。
より自然主義的に訓練されたモデルは、より人間らしい言語学習を示すのか?
本稿では,言語習得における重要なサブタスクである単語学習の文脈において,この問題を考察する。
論文 参考訳(メタデータ) (2023-10-20T03:33:36Z) - PLIP: Language-Image Pre-training for Person Representation Learning [47.61636087431226]
個人表現学習のための新しい言語画像事前学習フレームワークPLIPを提案する。
微粒なクロスモーダルアソシエーションを明示的に構築するために,3つのプレテキスト,すなわちセマンティックフューズド画像のカラー化,視覚フューズド属性予測,視覚言語マッチングを設計する。
我々は、SynTH-PEDES上でPLIPを事前訓練し、テキストベースのRe-ID、画像ベースのRe-ID、人物属性認識などの下流タスクにまたがるモデルを評価する。
論文 参考訳(メタデータ) (2023-05-15T06:49:00Z) - Learning Transferable Pedestrian Representation from Multimodal
Information Supervision [174.5150760804929]
VAL-PATは、移動可能な表現を学習し、様々な歩行者分析タスクをマルチモーダル情報で強化する新しいフレームワークである。
まず、LUPerson-TAデータセットで事前トレーニングを行い、各画像にはテキストと属性アノテーションが含まれている。
次に、学習した表現を、人物のreID、人物属性認識、テキストベースの人物検索など、さまざまな下流タスクに転送する。
論文 参考訳(メタデータ) (2023-04-12T01:20:58Z) - FaceXHuBERT: Text-less Speech-driven E(X)pressive 3D Facial Animation
Synthesis Using Self-Supervised Speech Representation Learning [0.0]
FaceXHuBERTは、テキストレス音声駆動の3D顔アニメーション生成方法である。
背景雑音に対して非常に頑丈で、様々な状況で録音された音声を処理できる。
アニメーションの写実性に関しては78%の精度で優れた結果が得られる。
論文 参考訳(メタデータ) (2023-03-09T17:05:19Z) - Generating Holistic 3D Human Motion from Speech [97.11392166257791]
同期音声を用いた3次元全体体メッシュの高品質データセットを構築した。
次に,顔,体,手が別々にモデル化される新しい音声合成フレームワークを定義する。
論文 参考訳(メタデータ) (2022-12-08T17:25:19Z) - MBTI Personality Prediction for Fictional Characters Using Movie Scripts [34.24896499537589]
我々は,映画キャラクタのMBTIやビッグ5の性格タイプを予測するために,Story2Personalityというベンチマークを構築した。
実験の結果,既存のテキスト分類モデルでは作業が困難であることが確認された。
言語記述と非言語記述の両方を用いた人格予測のための多視点モデルを提案する。
論文 参考訳(メタデータ) (2022-10-20T03:41:07Z) - Learning Graph Representation of Person-specific Cognitive Processes
from Audio-visual Behaviours for Automatic Personality Recognition [17.428626029689653]
本稿では,対象対象者固有の認知を,個人固有のCNNアーキテクチャの形で表現することを提案する。
各人物固有のCNNは、ニューラルアーキテクチャサーチ(NAS)と新しい適応損失関数によって探索される。
実験の結果,生成したグラフ表現は対象者の性格特性とよく関連していることがわかった。
論文 参考訳(メタデータ) (2021-10-26T11:04:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。