論文の概要: Multi-level Contrastive Learning for Script-based Character
Understanding
- arxiv url: http://arxiv.org/abs/2310.13231v1
- Date: Fri, 20 Oct 2023 02:40:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 00:47:09.380614
- Title: Multi-level Contrastive Learning for Script-based Character
Understanding
- Title(参考訳): 文字理解のための多レベルコントラスト学習
- Authors: Dawei Li, Hengyuan Zhang, Yanran Li, Shiping Yang
- Abstract要約: 文字の個人性やアイデンティティを発話から学習することを目的としたスクリプトにおける文字理解のシナリオに取り組む。
キャラクタのグローバル情報をきめ細かな方法でキャプチャするマルチレベルコントラスト学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 14.341307979533871
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we tackle the scenario of understanding characters in scripts,
which aims to learn the characters' personalities and identities from their
utterances. We begin by analyzing several challenges in this scenario, and then
propose a multi-level contrastive learning framework to capture characters'
global information in a fine-grained manner. To validate the proposed
framework, we conduct extensive experiments on three character understanding
sub-tasks by comparing with strong pre-trained language models, including
SpanBERT, Longformer, BigBird and ChatGPT-3.5. Experimental results demonstrate
that our method improves the performances by a considerable margin. Through
further in-depth analysis, we show the effectiveness of our method in
addressing the challenges and provide more hints on the scenario of character
understanding. We will open-source our work on github at
https://github.com/David-Li0406/Script-based-Character-Understanding.
- Abstract(参考訳): 本研究では,文字の個人性やアイデンティティを発話から学習することを目的とした,スクリプト中の文字理解のシナリオに取り組む。
まず,このシナリオにおける課題を分析し,文字のグローバル情報をきめ細かな方法で捉えるためのマルチレベルコントラスト学習フレームワークを提案する。
提案手法を検証するため,SpanBERT,Longformer,BigBird,ChatGPT-3.5など,学習済みの強力な言語モデルと比較し,3つの文字理解サブタスクについて広範な実験を行った。
実験の結果,本手法は性能をかなり改善できることが判明した。
さらに詳細な分析を通じて,課題に対処するための手法の有効性を示し,文字理解のシナリオについてさらなるヒントを提供する。
私たちはgithubに関する作業をhttps://github.com/David-Li0406/ScriptベースのCharacter-Understandingでオープンソース化します。
関連論文リスト
- BookWorm: A Dataset for Character Description and Analysis [59.186325346763184]
本稿では,短い事実プロファイルを生成する文字記述と,詳細な解釈を提供する文字解析という2つのタスクを定義する。
本稿では,Gutenbergプロジェクトからの書籍と,人間による記述と分析のペアリングを行うBookWormデータセットを紹介する。
その結果,検索に基づくアプローチは両タスクにおいて階層的アプローチよりも優れていた。
論文 参考訳(メタデータ) (2024-10-14T10:55:58Z) - Identifying and Analyzing Task-Encoding Tokens in Large Language Models [55.03191279766383]
本稿では,タスク性能が依存するタスク符号化トークンの識別と解析を行う。
テンプレートとストップワードトークンはタスクエンコーディングが最も困難であることを示す。
我々の研究は、大規模言語モデル(LLM)がいかにして、デモからタスクを実行するかを学習し、LLMでプレイされるさまざまな種類のトークンの役割の理解を深め、タスクエンコーディングトークンを不適切な利用から不安定を避けるための洞察を提供する。
論文 参考訳(メタデータ) (2024-01-20T20:55:21Z) - Can Linguistic Knowledge Improve Multimodal Alignment in Vision-Language
Pretraining? [34.609984453754656]
本研究の目的は,意味表現や構文構造を含む包括的言語知識がマルチモーダルアライメントに与える影響を明らかにすることである。
具体的には、最初の大規模マルチモーダルアライメント探索ベンチマークであるSNAREを設計、リリースする。
論文 参考訳(メタデータ) (2023-08-24T16:17:40Z) - Cue-CoT: Chain-of-thought Prompting for Responding to In-depth Dialogue
Questions with LLMs [59.74002011562726]
我々は、よりパーソナライズされ魅力的な応答を提供するために、新しい言語的キューに基づく思考の連鎖(textitCue-CoT)を提案する。
中国語と英語の6つのデータセットからなる詳細な対話質問を用いたベンチマークを構築した。
実験により,提案手法は,すべてのデータセットにおいて,テクステルパーフルネスとテクスチタアクセプタビリティの両方の観点から,標準的プロンプト法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-19T16:27:43Z) - Improving Scene Text Recognition for Character-Level Long-Tailed
Distribution [35.14058653707104]
本稿では,2つの専門家を用いた新しい文脈認識フリーエキスパートネットワーク(CAFE-Net)を提案する。
CAFE-Netは多数の文字を含む言語でのSTR性能を改善する。
論文 参考訳(メタデータ) (2023-03-31T06:11:33Z) - Context-faithful Prompting for Large Language Models [51.194410884263135]
大言語モデル(LLM)は世界事実に関するパラメトリック知識を符号化する。
パラメトリック知識への依存は、文脈的手がかりを見落とし、文脈に敏感なNLPタスクにおいて誤った予測をもたらす可能性がある。
我々は, LLMの文脈的忠実度を, 知識の衝突と, 棄権による予測の2つの側面で評価し, 向上する。
論文 参考訳(メタデータ) (2023-03-20T17:54:58Z) - ICL-D3IE: In-Context Learning with Diverse Demonstrations Updating for
Document Information Extraction [56.790794611002106]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクにおいて、文脈内学習による顕著な結果を示している。
ICL-D3IEと呼ばれるシンプルだが効果的なテキスト内学習フレームワークを提案する。
具体的には、ハードトレーニング文書から最も困難で独特なセグメントをハードデモとして抽出する。
論文 参考訳(メタデータ) (2023-03-09T06:24:50Z) - How learners produce data from text in classifying clickbait [0.0]
本研究は,テキストデータを用いた学習者がドメインの特定の側面を抽出するシナリオにおける理性について考察する。
私たちのゴールは、見出しを「クリックベイト」または「ニュース」と分類する動機づけタスクを用いて、学生がテキストをデータとして理解することについて光を当てることでした。
論文 参考訳(メタデータ) (2023-01-28T20:23:39Z) - ePiC: Employing Proverbs in Context as a Benchmark for Abstract Language
Understanding [12.107259467873092]
本稿では,抽象言語理解のためのベンチマークとして,文脈の証明を取り入れた高品質なクラウドソース型物語データセットを提案する。
このデータセットは、小冊子と物語の間の配列の微妙な注釈を提供し、物語と物語の間には最小限の語彙的重複を含む。
我々の実験は、ニューラルネットワークモデルが人間に比べてタスクに苦労していることを示し、タスクが複数の学習課題を引き起こすことを示している。
論文 参考訳(メタデータ) (2021-09-14T17:21:12Z) - CINS: Comprehensive Instruction for Few-shot Learning in Task-oriented
Dialog Systems [56.302581679816775]
本稿では,タスク固有の命令でPLMを利用する包括的インストラクション(CINS)を提案する。
命令のスキーマ(定義、制約、プロンプト)と、ToDの3つの重要な下流タスクに対するカスタマイズされた実現を設計する。
これらのToDタスクに対して,小さな検証データを用いた現実的な数ショット学習シナリオで実験を行った。
論文 参考訳(メタデータ) (2021-09-10T03:23:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。