論文の概要: PeaCoK: Persona Commonsense Knowledge for Consistent and Engaging
Narratives
- arxiv url: http://arxiv.org/abs/2305.02364v2
- Date: Fri, 26 May 2023 08:45:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-29 20:02:36.956964
- Title: PeaCoK: Persona Commonsense Knowledge for Consistent and Engaging
Narratives
- Title(参考訳): PeaCoK: 一貫性とエンゲージグナラティブのためのペルソナコモンセンス知識
- Authors: Silin Gao, Beatriz Borges, Soyoung Oh, Deniz Bayazit, Saya Kanno,
Hiromi Wakaki, Yuki Mitsufuji, Antoine Bosselut
- Abstract要約: 我々は,100万個の人格情報を含む大規模ペルソナ常識知識グラフPeaCoKを構築した。
分析の結果、PeaCoKには、より一貫性があり魅力的な物語を生成する下流システムを支援する、豊かで正確な世界ペルソナ推論が含まれていることが示唆された。
- 参考スコア(独自算出の注目度): 26.732367567857114
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sustaining coherent and engaging narratives requires dialogue or storytelling
agents to understand how the personas of speakers or listeners ground the
narrative. Specifically, these agents must infer personas of their listeners to
produce statements that cater to their interests. They must also learn to
maintain consistent speaker personas for themselves throughout the narrative,
so that their counterparts feel involved in a realistic conversation or story.
However, personas are diverse and complex: they entail large quantities of
rich interconnected world knowledge that is challenging to robustly represent
in general narrative systems (e.g., a singer is good at singing, and may have
attended conservatoire). In this work, we construct a new large-scale persona
commonsense knowledge graph, PeaCoK, containing ~100K human-validated persona
facts. Our knowledge graph schematizes five dimensions of persona knowledge
identified in previous studies of human interactive behaviours, and distils
facts in this schema from both existing commonsense knowledge graphs and
large-scale pretrained language models. Our analysis indicates that PeaCoK
contains rich and precise world persona inferences that help downstream systems
generate more consistent and engaging narratives.
- Abstract(参考訳): コヒーレントで魅力的な物語を維持するためには、対話やストーリーテリングエージェントが話し手や聞き手のペルソナがどのように物語を担っているかを理解する必要がある。
具体的には、これらのエージェントはリスナーのペルソナを推論し、彼らの興味をひく声明を作成する必要がある。
彼らはまた、物語全体を通して一貫した話者のパーソナラを維持することを学び、彼らの相手が現実的な会話や物語に関与していると感じる必要がある。
しかし、ペルソナは多様で複雑であり、一般的な物語体系において頑丈な表現が難しい豊富な相互接続世界知識(例えば、歌手は歌が得意で、音楽院に通っていたかもしれない)を大量に持っている。
本研究では,約100万個の人格事実を含む大規模ペルソナ常識知識グラフPeaCoKを構築した。
我々の知識グラフは、人間の対話行動の過去の研究で特定された5次元のペルソナ知識をスキーマ化し、既存の常識知識グラフと大規模事前学習言語モデルからこのスキーマの事実を消し去る。
分析の結果、PeaCoKには、より一貫性があり魅力的な物語を生成する下流システムを支援するリッチで正確な世界ペルソナ推論が含まれていることが示唆された。
関連論文リスト
- Story Shaping: Teaching Agents Human-like Behavior with Stories [9.649246837532417]
本稿では、強化学習エージェントが、タスクの達成方法に関する模範的なストーリーから暗黙の知識を推測するストーリーシェイピングを紹介する。
エージェントの推論された世界状態グラフと推定されたストーリー世界グラフとの類似性に基づいて本質的な報酬を生成する。
テキストベースのゲームにおいて,エージェントの動作を仮想ゲームキャラクタとして記述し,常識推論を必要とする実験を行った。
論文 参考訳(メタデータ) (2023-01-24T16:19:09Z) - RHO ($\rho$): Reducing Hallucination in Open-domain Dialogues with
Knowledge Grounding [57.46495388734495]
本稿では、知識グラフ(KG)からリンクされたエンティティと関係述語を表現したRHO(rho$)を提案する。
本稿では,(1)テキスト埋め込みと対応するKG埋め込みを組み合わせるための局所知識基盤,(2)注目機構を介してRHOにマルチホップ推論能力を持たせるためのグローバル知識基盤を提案する。
論文 参考訳(メタデータ) (2022-12-03T10:36:34Z) - A Benchmark for Understanding and Generating Dialogue between Characters
in Stories [75.29466820496913]
本研究は,機械が物語の対話を理解・生成できるかどうかを探求する最初の研究である。
マスク付き対話生成と対話話者認識という2つの新しいタスクを提案する。
DialStoryの自動評価と手動評価で既存のモデルをテストすることで,提案課題の難しさを示す。
論文 参考訳(メタデータ) (2022-09-18T10:19:04Z) - Understanding How People Rate Their Conversations [73.17730062864314]
我々は、人々が会話エージェントとのインタラクションをどのように評価するかをよりよく理解するために研究を行う。
我々は、評価の変動を説明する変数として、同意性と外向性に焦点を当てる。
論文 参考訳(メタデータ) (2022-06-01T00:45:32Z) - TVShowGuess: Character Comprehension in Stories as Speaker Guessing [23.21452223968301]
物語における架空のキャラクターを理解するための機械のスキルを評価するための新しいタスクを提案する。
タスクであるTVShowGuessは、TVシリーズのスクリプトをベースとして、シーンの背景や対話に基づいて匿名のメインキャラクターを推測する形式をとっている。
我々の人間による研究は、キャラクターの個性、事実、個性体験の記憶など、複数の種類の人格の理解をカバーしている。
論文 参考訳(メタデータ) (2022-04-16T05:15:04Z) - A System for Image Understanding using Sensemaking and Narrative [0.0]
我々は、人々が世界を理解する方法に関して、センスメイキングと物語の理論について議論する。
視覚的ストーリーテリングという特定の計算課題に注目し、そのソリューションは、センスメイキングと物語の要素を利用することで強化することができる。
論文 参考訳(メタデータ) (2022-01-21T20:52:02Z) - Computational Lens on Cognition: Study Of Autobiographical Versus
Imagined Stories With Large-Scale Language Models [95.88620740809004]
GPT-3を用いた自伝的物語と想像的物語における出来事の物語の流れの相違について検討した。
想像された物語は自伝的物語よりも逐次性が高いことがわかった。
想像された物語と比較すると、自伝的な物語は、最初の人物に関連するより具体的な言葉と単語を含んでいる。
論文 参考訳(メタデータ) (2022-01-07T20:10:47Z) - Few-shot Language Coordination by Modeling Theory of Mind [95.54446989205117]
我々は、数ショット$textit language coordinate$のタスクについて研究する。
リードエージェントは、言語能力の異なるエージェントの$textitpopulation$と調整する必要があります。
これは、人間のコミュニケーションの重要な構成要素であるパートナーの信念をモデル化する能力を必要とする。
論文 参考訳(メタデータ) (2021-07-12T19:26:11Z) - Paragraph-level Commonsense Transformers with Recurrent Memory [77.4133779538797]
物語からコヒーレントなコモンセンス推論を生成するために,段落レベルの情報を含む談話認識モデルを訓練する。
以上の結果から,PARA-COMETは文レベルのベースライン,特にコヒーレントかつ新規な推論に優れていた。
論文 参考訳(メタデータ) (2020-10-04T05:24:12Z) - Exploring aspects of similarity between spoken personal narratives by
disentangling them into narrative clause types [13.350982138577038]
本稿では,594本の映像から10,296の物語節を含む実世界の音声物語のコーパスを紹介する。
第2に,非ナラティブな専門家に,ラボフの社会言語的個人的物語モデルの下で,これらの節に注釈を付けるよう依頼する。
第3に、最上位の節に対して84.7%のFスコアに達する分類器を訓練する。
我々のアプローチは、個人の物語を研究または表現することを目的とした機械学習の手法を情報提供することを目的としている。
論文 参考訳(メタデータ) (2020-05-26T14:34:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。