論文の概要: Learning Similarity between Movie Characters and Its Potential
Implications on Understanding Human Experiences
- arxiv url: http://arxiv.org/abs/2010.12183v2
- Date: Wed, 12 May 2021 06:35:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 22:24:25.876716
- Title: Learning Similarity between Movie Characters and Its Potential
Implications on Understanding Human Experiences
- Title(参考訳): 映画キャラクタの相似性と人間体験の理解への可能性
- Authors: Zhilin Wang, Weizhe Lin, Xiaodong Wu
- Abstract要約: そこで本研究では,このリッチさを映画キャラクタの立場から捉えた新しい課題を提案する。
コミュニティで2万のテーマに格上げされた映画キャラクター間のテーマレベルの類似性を捉えようとした。
- 参考スコア(独自算出の注目度): 7.1282254016123305
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While many different aspects of human experiences have been studied by the
NLP community, none has captured its full richness. We propose a new task to
capture this richness based on an unlikely setting: movie characters. We sought
to capture theme-level similarities between movie characters that were
community-curated into 20,000 themes. By introducing a two-step approach that
balances performance and efficiency, we managed to achieve 9-27\% improvement
over recent paragraph-embedding based methods. Finally, we demonstrate how the
thematic information learnt from movie characters can potentially be used to
understand themes in the experience of people, as indicated on Reddit posts.
- Abstract(参考訳): 人間体験の多くの異なる側面はnlpコミュニティによって研究されてきたが、その富をフルに捉えた者はいない。
そこで本研究では,このリッチさを映画キャラクタの立場から捉えた新しい課題を提案する。
我々は、コミュニティで2万のテーマにまとめられた映画キャラクタ間のテーマレベルの類似性を捉えようとした。
性能と効率のバランスをとる2段階のアプローチを導入することで,最近の段落埋め込み方式に比べて9-27\%の改善を達成できた。
最後に、Redditの投稿で示されているように、映画キャラクタから学んだテーマ情報は、人々の体験におけるテーマを理解するためにどのように使用できるかを実証する。
関連論文リスト
- Are Large Language Models Capable of Generating Human-Level Narratives? [114.34140090869175]
本稿ではストーリーテリングにおけるLLMの能力について考察し,物語の展開とプロットの進行に着目した。
本稿では,3つの談話レベルの側面から物語を分析するための新しい計算フレームワークを提案する。
談話機能の明示的な統合は、ニューラルストーリーテリングの40%以上の改善によって示されるように、ストーリーテリングを促進することができることを示す。
論文 参考訳(メタデータ) (2024-07-18T08:02:49Z) - HEART-felt Narratives: Tracing Empathy and Narrative Style in Personal Stories with LLMs [30.636456219922906]
共感は、社会的な行動を可能にするための基盤となり、物語の中で個人的な経験を共有することによって引き起こされる。
共感は物語の内容に影響されるが、直感的には物語の語り方にも反応する。
我々は, LLMと大規模クラウドソーシング研究を用いて, スタイルと共感の関係を実証的に検証し, 定量化する。
論文 参考訳(メタデータ) (2024-05-27T20:00:38Z) - Personality Understanding of Fictional Characters during Book Reading [81.68515671674301]
この問題に対する最初のラベル付きデータセットPersoNetを提示する。
当社の新たなアノテーション戦略では,オリジナル書籍のプロキシとして,オンライン読書アプリからユーザノートを注釈付けします。
実験と人間の研究は、データセットの構築が効率的かつ正確であることを示している。
論文 参考訳(メタデータ) (2023-05-17T12:19:11Z) - Few-Shot Character Understanding in Movies as an Assessment to
Meta-Learning of Theory-of-Mind [47.13015852330866]
人間は、いくつかの観察によって、新しい架空のキャラクターを素早く理解することができる。
これは、人間のキャラクターの精神状態、すなわち理論・オブ・ミンド(ToM)の推論における、数少ないショットとメタラーニングの本質を反映している。
このギャップを新しいNLPデータセットであるToM-in-AMCで埋め、現実的な物語理解シナリオにおける機械によるToMのメタラーニングを初めて評価する。
論文 参考訳(メタデータ) (2022-11-09T05:06:12Z) - On Negative Sampling for Audio-Visual Contrastive Learning from Movies [12.967364755951722]
本研究では,未修正長大コンテンツ,すなわち映画からの音声・視覚的自己指導学習の有効性について検討する。
実験結果から、一定の修正を加えて、未処理のロングフォームビデオのトレーニングによって、最先端技術と競合する表現が得られることが示唆された。
論文 参考訳(メタデータ) (2022-04-29T20:36:13Z) - TVShowGuess: Character Comprehension in Stories as Speaker Guessing [23.21452223968301]
物語における架空のキャラクターを理解するための機械のスキルを評価するための新しいタスクを提案する。
タスクであるTVShowGuessは、TVシリーズのスクリプトをベースとして、シーンの背景や対話に基づいて匿名のメインキャラクターを推測する形式をとっている。
我々の人間による研究は、キャラクターの個性、事実、個性体験の記憶など、複数の種類の人格の理解をカバーしている。
論文 参考訳(メタデータ) (2022-04-16T05:15:04Z) - Film Trailer Generation via Task Decomposition [65.16768855902268]
私たちは映画をグラフとしてモデル化し、ノードはショットであり、エッジはそれらの間のセマンティックな関係を表す。
スクリーンプレイから特権的テキスト情報を活用する共同コントラストトレーニングを用いて,これらの関係を学習する。
教師なしのアルゴリズムがグラフを横切り、人間の審査員が競争的な教師付きアプローチによって生成されるトレーラーを生成する。
論文 参考訳(メタデータ) (2021-11-16T20:50:52Z) - "Let Your Characters Tell Their Story": A Dataset for Character-Centric
Narrative Understanding [31.803481510886378]
文芸作品の新しいデータセットLiSCUとその要約を、それらに現れる文字の記述と組み合わせて紹介する。
また、LiSCUにおける文字識別と文字記述生成という2つの新しいタスクについても紹介する。
これらの課題に適応した事前学習型言語モデルを用いた実験により,より優れた物語理解モデルの必要性が示された。
論文 参考訳(メタデータ) (2021-09-12T06:12:55Z) - Affect2MM: Affective Analysis of Multimedia Content Using Emotion
Causality [84.69595956853908]
本稿では,マルチメディアコンテンツを対象とした時系列感情予測学習手法であるAffect2MMを提案する。
私たちの目標は、現実の人間中心の状況や行動でキャラクターが描く様々な感情を自動的に捉えることです。
論文 参考訳(メタデータ) (2021-03-11T09:07:25Z) - What Can You Learn from Your Muscles? Learning Visual Representation
from Human Interactions [50.435861435121915]
視覚のみの表現よりも優れた表現を学べるかどうかを調べるために,人間のインタラクションとアテンション・キューを用いている。
実験の結果,我々の「音楽監督型」表現は,視覚のみの最先端手法であるMoCoよりも優れていた。
論文 参考訳(メタデータ) (2020-10-16T17:46:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。