論文の概要: Modeling Event Salience in Narratives via Barthes' Cardinal Functions
- arxiv url: http://arxiv.org/abs/2011.01785v1
- Date: Tue, 3 Nov 2020 15:28:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 04:52:10.011615
- Title: Modeling Event Salience in Narratives via Barthes' Cardinal Functions
- Title(参考訳): Barthes' Cardinal Function を用いた物語のイベント・サリエンスモデリング
- Authors: Takaki Otake, Sho Yokoi, Naoya Inoue, Ryo Takahashi, Tatsuki
Kuribayashi, Kentaro Inui
- Abstract要約: 出来事のサリエンスを推定することは、ナラトロジーや民俗学における物語の生成やテキスト分析といったタスクに有用である。
アノテーションを使わずにイベントサリエンスを計算するために,事前学習された言語モデルのみを必要とする教師なしの手法をいくつか提案する。
本稿では,提案手法がベースライン手法より優れており,物語テキスト上での言語モデルの微調整が提案手法の改善の鍵となる要因であることを示す。
- 参考スコア(独自算出の注目度): 38.44885682996472
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Events in a narrative differ in salience: some are more important to the
story than others. Estimating event salience is useful for tasks such as story
generation, and as a tool for text analysis in narratology and folkloristics.
To compute event salience without any annotations, we adopt Barthes' definition
of event salience and propose several unsupervised methods that require only a
pre-trained language model. Evaluating the proposed methods on folktales with
event salience annotation, we show that the proposed methods outperform
baseline methods and find fine-tuning a language model on narrative texts is a
key factor in improving the proposed methods.
- Abstract(参考訳): 物語の中の出来事は、敬礼によって異なる:ある出来事は他の物語よりも物語にとって重要である。
物語生成などのタスクや、ナラトロジーや民俗学におけるテキスト分析のツールとして、イベントサルジェンスの推定は有用である。
アノテーションを使わずにイベントサリエンスを計算するために,Barthes氏のイベントサリエンスの定義を採用し,事前訓練された言語モデルのみを必要とする教師なしメソッドをいくつか提案する。
提案手法をイベントサルジェンスアノテーションを用いて評価し,提案手法がベースライン手法を上回り,物語文による言語モデルの微調整を見いだすことが,提案手法を改善する上で重要な要因であることを示す。
関連論文リスト
- Manual Verbalizer Enrichment for Few-Shot Text Classification [1.860409237919611]
acrshortmaveは、クラスラベルの豊か化による動詞化のためのアプローチである。
本モデルでは, 資源を著しく減らしながら, 最先端の成果が得られている。
論文 参考訳(メタデータ) (2024-10-08T16:16:47Z) - Distilling Monolingual and Crosslingual Word-in-Context Representations [18.87665111304974]
本研究では,単言語と言語間の両方の設定において,事前学習した言語モデルから文脈における単語の意味表現を除去する手法を提案する。
本手法では,事前学習したモデルのコーパスやパラメータの更新は不要である。
本手法は,事前学習したモデルの異なる隠れ層の出力を自己注意を用いて組み合わせることから学習する。
論文 参考訳(メタデータ) (2024-09-13T11:10:16Z) - Pixel Sentence Representation Learning [67.4775296225521]
本研究では,視覚表現学習プロセスとして,文レベルのテキスト意味論の学習を概念化する。
タイポスや単語順シャッフルのような視覚的に接地されたテキスト摂動法を採用し、人間の認知パターンに共鳴し、摂動を連続的に認識できるようにする。
我々のアプローチは、大規模に教師なしのトピックアライメントトレーニングと自然言語推論監督によってさらに強化されている。
論文 参考訳(メタデータ) (2024-02-13T02:46:45Z) - Disco-Bench: A Discourse-Aware Evaluation Benchmark for Language
Modelling [70.23876429382969]
本研究では,多種多様なNLPタスクに対して,文内談話特性を評価できるベンチマークを提案する。
ディスコ・ベンチは文学領域における9つの文書レベルのテストセットから構成されており、豊富な談話現象を含んでいる。
また,言語分析のために,対象モデルが談話知識を学習するかどうかを検証できる診断テストスイートを設計する。
論文 参考訳(メタデータ) (2023-07-16T15:18:25Z) - Global Constraints with Prompting for Zero-Shot Event Argument
Classification [49.84347224233628]
我々は、アノテーションやタスク固有のトレーニングを使わずに、イベント引数の分類に取り組むよう促すことで、グローバルな制約を利用することを提案する。
事前訓練された言語モデルは、新しいパスをスコアし、最初の予測を行う。
私たちの新しいプロンプトテンプレートは、手作業なしで、すべてのイベントや引数タイプに簡単に適応できます。
論文 参考訳(メタデータ) (2023-02-09T06:39:29Z) - A Generative Approach for Script Event Prediction via Contrastive
Fine-tuning [35.87615178251874]
Scriptイベント予測は、コンテキストが与えられた後続のイベントを予測することを目的としている。
近年の研究では,事前学習言語モデルと外部知識の導入により,事象相関推論の改善が試みられている。
本稿では,事前学習した言語モデルをイベント中心の事前学習目的で微調整する,新しい生成手法を提案する。
論文 参考訳(メタデータ) (2022-12-07T07:32:47Z) - Semantic Pivoting Model for Effective Event Detection [19.205550116466604]
Event Detectionは、構造化されていない記事からイベントインスタンスの参照を識別し、分類することを目的としている。
イベント検出の既存のテクニックは、イベントタイプクラスを表現するために、均質な1ホットベクトルのみを使用しており、型の意味がタスクにとって重要であるという事実を無視している。
本稿では,学習中の事前情報を明示的に組み込んで,入力とイベント間の意味的に意味のある相関関係を捉えるセマンティック・ピロリング・モデル(SPEED)を提案する。
論文 参考訳(メタデータ) (2022-11-01T19:20:34Z) - Probing via Prompting [71.7904179689271]
本稿では,探索をプロンプトタスクとして定式化することで,新しいモデルフリーな探索手法を提案する。
我々は5つの探索課題について実験を行い、我々のアプローチが診断プローブよりも情報抽出に優れていることを示す。
次に,その特性に不可欠な頭部を除去し,言語モデリングにおけるモデルの性能を評価することにより,事前学習のための特定の言語特性の有用性を検討する。
論文 参考訳(メタデータ) (2022-07-04T22:14:40Z) - Memory and Knowledge Augmented Language Models for Inferring Salience in
Long-Form Stories [21.99104738567138]
本稿では,Barthes Cardinal Functions 由来の塩分検出の教師なし手法とサプライズ理論について述べる。
外部知識ベースを導入し、メモリ機構を追加することにより、標準トランスフォーマー言語モデルを改善する。
このデータに対する評価は,サリエンス検出モデルが非知識ベースおよびメモリ拡張言語モデル以上の性能を向上させることを示す。
論文 参考訳(メタデータ) (2021-09-08T16:15:50Z) - Toward Better Storylines with Sentence-Level Language Models [54.91921545103256]
本稿では,文章中の次の文を選択する文レベル言語モデルを提案する。
教師なしストーリークローゼタスクにおける最先端の精度によるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-11T16:54:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。