論文の概要: Learning Similarity between Movie Characters and Its Potential
Implications on Understanding Human Experiences
- arxiv url: http://arxiv.org/abs/2010.12183v2
- Date: Wed, 12 May 2021 06:35:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 22:24:25.876716
- Title: Learning Similarity between Movie Characters and Its Potential
Implications on Understanding Human Experiences
- Title(参考訳): 映画キャラクタの相似性と人間体験の理解への可能性
- Authors: Zhilin Wang, Weizhe Lin, Xiaodong Wu
- Abstract要約: そこで本研究では,このリッチさを映画キャラクタの立場から捉えた新しい課題を提案する。
コミュニティで2万のテーマに格上げされた映画キャラクター間のテーマレベルの類似性を捉えようとした。
- 参考スコア(独自算出の注目度): 7.1282254016123305
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While many different aspects of human experiences have been studied by the
NLP community, none has captured its full richness. We propose a new task to
capture this richness based on an unlikely setting: movie characters. We sought
to capture theme-level similarities between movie characters that were
community-curated into 20,000 themes. By introducing a two-step approach that
balances performance and efficiency, we managed to achieve 9-27\% improvement
over recent paragraph-embedding based methods. Finally, we demonstrate how the
thematic information learnt from movie characters can potentially be used to
understand themes in the experience of people, as indicated on Reddit posts.
- Abstract(参考訳): 人間体験の多くの異なる側面はnlpコミュニティによって研究されてきたが、その富をフルに捉えた者はいない。
そこで本研究では,このリッチさを映画キャラクタの立場から捉えた新しい課題を提案する。
我々は、コミュニティで2万のテーマにまとめられた映画キャラクタ間のテーマレベルの類似性を捉えようとした。
性能と効率のバランスをとる2段階のアプローチを導入することで,最近の段落埋め込み方式に比べて9-27\%の改善を達成できた。
最後に、Redditの投稿で示されているように、映画キャラクタから学んだテーマ情報は、人々の体験におけるテーマを理解するためにどのように使用できるかを実証する。
関連論文リスト
- Personality Understanding of Fictional Characters during Book Reading [81.68515671674301]
この問題に対する最初のラベル付きデータセットPersoNetを提示する。
当社の新たなアノテーション戦略では,オリジナル書籍のプロキシとして,オンライン読書アプリからユーザノートを注釈付けします。
実験と人間の研究は、データセットの構築が効率的かつ正確であることを示している。
論文 参考訳(メタデータ) (2023-05-17T12:19:11Z) - Few-Shot Character Understanding in Movies as an Assessment to
Meta-Learning of Theory-of-Mind [47.13015852330866]
人間は、いくつかの観察によって、新しい架空のキャラクターを素早く理解することができる。
これは、人間のキャラクターの精神状態、すなわち理論・オブ・ミンド(ToM)の推論における、数少ないショットとメタラーニングの本質を反映している。
このギャップを新しいNLPデータセットであるToM-in-AMCで埋め、現実的な物語理解シナリオにおける機械によるToMのメタラーニングを初めて評価する。
論文 参考訳(メタデータ) (2022-11-09T05:06:12Z) - On Negative Sampling for Audio-Visual Contrastive Learning from Movies [12.967364755951722]
本研究では,未修正長大コンテンツ,すなわち映画からの音声・視覚的自己指導学習の有効性について検討する。
実験結果から、一定の修正を加えて、未処理のロングフォームビデオのトレーニングによって、最先端技術と競合する表現が得られることが示唆された。
論文 参考訳(メタデータ) (2022-04-29T20:36:13Z) - TVShowGuess: Character Comprehension in Stories as Speaker Guessing [23.21452223968301]
物語における架空のキャラクターを理解するための機械のスキルを評価するための新しいタスクを提案する。
タスクであるTVShowGuessは、TVシリーズのスクリプトをベースとして、シーンの背景や対話に基づいて匿名のメインキャラクターを推測する形式をとっている。
我々の人間による研究は、キャラクターの個性、事実、個性体験の記憶など、複数の種類の人格の理解をカバーしている。
論文 参考訳(メタデータ) (2022-04-16T05:15:04Z) - Film Trailer Generation via Task Decomposition [65.16768855902268]
私たちは映画をグラフとしてモデル化し、ノードはショットであり、エッジはそれらの間のセマンティックな関係を表す。
スクリーンプレイから特権的テキスト情報を活用する共同コントラストトレーニングを用いて,これらの関係を学習する。
教師なしのアルゴリズムがグラフを横切り、人間の審査員が競争的な教師付きアプローチによって生成されるトレーラーを生成する。
論文 参考訳(メタデータ) (2021-11-16T20:50:52Z) - "Let Your Characters Tell Their Story": A Dataset for Character-Centric
Narrative Understanding [31.803481510886378]
文芸作品の新しいデータセットLiSCUとその要約を、それらに現れる文字の記述と組み合わせて紹介する。
また、LiSCUにおける文字識別と文字記述生成という2つの新しいタスクについても紹介する。
これらの課題に適応した事前学習型言語モデルを用いた実験により,より優れた物語理解モデルの必要性が示された。
論文 参考訳(メタデータ) (2021-09-12T06:12:55Z) - Affect2MM: Affective Analysis of Multimedia Content Using Emotion
Causality [84.69595956853908]
本稿では,マルチメディアコンテンツを対象とした時系列感情予測学習手法であるAffect2MMを提案する。
私たちの目標は、現実の人間中心の状況や行動でキャラクターが描く様々な感情を自動的に捉えることです。
論文 参考訳(メタデータ) (2021-03-11T09:07:25Z) - What Can You Learn from Your Muscles? Learning Visual Representation
from Human Interactions [50.435861435121915]
視覚のみの表現よりも優れた表現を学べるかどうかを調べるために,人間のインタラクションとアテンション・キューを用いている。
実験の結果,我々の「音楽監督型」表現は,視覚のみの最先端手法であるMoCoよりも優れていた。
論文 参考訳(メタデータ) (2020-10-16T17:46:53Z) - Toward Accurate Person-level Action Recognition in Videos of Crowded
Scenes [131.9067467127761]
我々は、シーンの情報を完全に活用し、新しいデータを集めることで、アクション認識を改善することに集中する。
具体的には、各フレームの空間的位置を検出するために、強い人間の検出器を採用する。
そして、行動認識モデルを適用して、HIEデータセットとインターネットから多様なシーンを持つ新しいデータの両方でビデオフレームから時間情報を学ぶ。
論文 参考訳(メタデータ) (2020-10-16T13:08:50Z) - DramaQA: Character-Centered Video Story Understanding with Hierarchical
QA [24.910132013543947]
本稿では,ビデオストーリーを包括的に理解するために,新しいビデオ質問応答(ビデオQA)タスクであるDramaQAを提案する。
我々のデータセットはテレビドラマ『Another Miss Oh』の上に構築されており、17,983対のQAが23,928の様々な長さのビデオクリップから作成されている。
我々は217,308個の注釈付き画像にリッチな文字中心のアノテーションを提供し、その中には視覚的バウンディングボックス、行動、メインキャラクタの感情が含まれる。
論文 参考訳(メタデータ) (2020-05-07T09:44:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。