論文の概要: Few-Shot Character Understanding in Movies as an Assessment to
Meta-Learning of Theory-of-Mind
- arxiv url: http://arxiv.org/abs/2211.04684v1
- Date: Wed, 9 Nov 2022 05:06:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 16:02:15.666976
- Title: Few-Shot Character Understanding in Movies as an Assessment to
Meta-Learning of Theory-of-Mind
- Title(参考訳): 映画におけるマイノリティ理解 : 思考理論のメタラーニングと評価
- Authors: Mo Yu, Yisi Sang, Kangsheng Pu, Zekai Wei, Han Wang, Jing Li, Yue Yu,
Jie Zhou
- Abstract要約: 人間は、いくつかの観察で新しい架空のキャラクターを素早く理解することができる。
これは、人間の心的状態、すなわち人間の心的状態(ToM)を推論する数少ないショットとメタラーニングの本質を反映している。
このギャップを新しいNLPベンチマークであるTOM-IN-AMCで埋め、現実的な物語理解シナリオにおけるToMのメタラーニング能力の最初の評価を行う。
- 参考スコア(独自算出の注目度): 31.279359402001273
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When reading a story, humans can rapidly understand new fictional characters
with a few observations, mainly by drawing analogy to fictional and real people
they met before in their lives. This reflects the few-shot and meta-learning
essence of humans' inference of characters' mental states, i.e., humans'
theory-of-mind (ToM), which is largely ignored in existing research. We fill
this gap with a novel NLP benchmark, TOM-IN-AMC, the first assessment of
models' ability of meta-learning of ToM in a realistic narrative understanding
scenario. Our benchmark consists of $\sim$1,000 parsed movie scripts for this
purpose, each corresponding to a few-shot character understanding task; and
requires models to mimic humans' ability of fast digesting characters with a
few starting scenes in a new movie. Our human study verified that humans can
solve our problem by inferring characters' mental states based on their
previously seen movies; while the state-of-the-art metric-learning and
meta-learning approaches adapted to our task lags 30% behind.
- Abstract(参考訳): 物語を読むとき、人間はいくつかの観察で新しい架空のキャラクターを素早く理解することができる。
これは、人間によるキャラクターの精神状態の推論、すなわち、既存の研究でほとんど無視されている人間の思考の理論(tom)の、少数かつメタラーニングの本質を反映している。
このギャップを新しいNLPベンチマークであるTOM-IN-AMCで埋め、現実的な物語理解シナリオにおけるToMのメタラーニング能力の最初の評価を行う。
私たちのベンチマークは、1000ドル(約10万円)で解析された映画スクリプトで構成されており、それぞれが数発のキャラクタ理解タスクに対応しており、新しい映画で数シーンの開始シーンで、人間の高速なキャラクタを消化する能力を模倣するモデルを必要としています。
私たちのヒューマンスタディでは、以前見た映画に基づいてキャラクターの精神状態を推測することで、人間が問題を解決できることが確認されましたが、私たちのタスクに適応した最先端のメトリックラーニングとメタラーニングのアプローチは30%遅れています。
関連論文リスト
- Decompose-ToM: Enhancing Theory of Mind Reasoning in Large Language Models through Simulation and Task Decomposition [2.089191490381739]
心の理論 (Theory of Mind, ToM) は、他者の精神状態を理解し、反映する能力である。
大規模言語モデル(LLM)は、ToMの初歩的な理解しか持たない。
本稿では,複雑なToMタスクにおけるモデル性能を改善するLLMベースの推論アルゴリズムであるDecompose-ToM'を提案する。
論文 参考訳(メタデータ) (2025-01-15T18:44:01Z) - The Essence of Contextual Understanding in Theory of Mind: A Study on Question Answering with Story Characters [67.61587661660852]
理論・オブ・ミンド(ToM)は、人間が他者の精神状態を理解し解釈することを可能にする。
本稿では,ToMにおける長期的個人的背景を理解することの重要性を検証する。
現実的な評価シナリオにおける機械のToM能力の評価を行う。
論文 参考訳(メタデータ) (2025-01-03T09:04:45Z) - Measuring Psychological Depth in Language Models [50.48914935872879]
本稿では,文学理論に根ざした新たな枠組みである心理的深度尺度(PDS)を紹介する。
PDS(0.72 クリッペンドルフのα)に基づいて人間が一貫して物語を評価できることを示し、我々の枠組みを実証的に検証する。
驚いたことに、GPT-4のストーリーはRedditから入手した高評価の人文記事と統計的に区別できない。
論文 参考訳(メタデータ) (2024-06-18T14:51:54Z) - OpenToM: A Comprehensive Benchmark for Evaluating Theory-of-Mind Reasoning Capabilities of Large Language Models [17.042114879350788]
N-ToM(Neural Theory-of-Mind)は、他者の精神状態を理解し、追跡する能力を持つ機械である。
OpenToMは、より長く明確な物語、明示的な性格特性、キャラクタの意図によって引き起こされる行動でN-ToMを評価するための新しいベンチマークである。
身体世界における精神状態の特定の側面をモデル化する上では最先端のLSMが活躍するが、心理学世界におけるキャラクターの精神状態を追跡する際には不足することが明らかとなった。
論文 参考訳(メタデータ) (2024-02-08T20:35:06Z) - MMToM-QA: Multimodal Theory of Mind Question Answering [80.87550820953236]
心の理論 (ToM) は人間レベルの社会知能を持つ機械を開発する上で不可欠な要素である。
最近の機械学習モデル、特に大きな言語モデルは、ToM理解のいくつかの側面を示しているようだ。
一方、ヒューマンToMはビデオやテキストの理解以上のものです。
人は、利用可能なデータから抽出された概念的表現に基づいて、他人の心について柔軟に推論することができる。
論文 参考訳(メタデータ) (2024-01-16T18:59:24Z) - Think Twice: Perspective-Taking Improves Large Language Models'
Theory-of-Mind Capabilities [63.90227161974381]
SimToMは、シミュレーション理論の視点取りの概念にインスパイアされた、新しいプロンプトフレームワークである。
我々のアプローチは、追加のトレーニングや最小限のプロンプトチューニングを必要とせず、既存の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-11-16T22:49:27Z) - Towards A Holistic Landscape of Situated Theory of Mind in Large Language Models [13.265149793053546]
大言語モデル(LLM)は、心の理論(ToM)の出現の可能性について、かなりの関心と議論を巻き起こしている。
最近のいくつかの調査では、これらのモデルに堅牢なToMが欠如していることが判明し、新しいベンチマークの開発に対する需要が高まっている。
マシンToMを7つのメンタルステートカテゴリに分類し、既存のベンチマークをデライン化して、探索されていないToMの側面を特定します。
論文 参考訳(メタデータ) (2023-10-30T15:12:09Z) - TVShowGuess: Character Comprehension in Stories as Speaker Guessing [23.21452223968301]
物語における架空のキャラクターを理解するための機械のスキルを評価するための新しいタスクを提案する。
タスクであるTVShowGuessは、TVシリーズのスクリプトをベースとして、シーンの背景や対話に基づいて匿名のメインキャラクターを推測する形式をとっている。
我々の人間による研究は、キャラクターの個性、事実、個性体験の記憶など、複数の種類の人格の理解をカバーしている。
論文 参考訳(メタデータ) (2022-04-16T05:15:04Z) - Affect2MM: Affective Analysis of Multimedia Content Using Emotion
Causality [84.69595956853908]
本稿では,マルチメディアコンテンツを対象とした時系列感情予測学習手法であるAffect2MMを提案する。
私たちの目標は、現実の人間中心の状況や行動でキャラクターが描く様々な感情を自動的に捉えることです。
論文 参考訳(メタデータ) (2021-03-11T09:07:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。