論文の概要: Chinese Metaphor Recognition Using a Multi-stage Prompting Large Language Model
- arxiv url: http://arxiv.org/abs/2408.09177v1
- Date: Sat, 17 Aug 2024 11:56:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-20 22:01:27.361635
- Title: Chinese Metaphor Recognition Using a Multi-stage Prompting Large Language Model
- Title(参考訳): 多段階大言語モデルを用いた中国語メタファー認識
- Authors: Jie Wang, Jin Wang, Xuejie Zhang,
- Abstract要約: 多段階生成促進型プロンプトフレームワークは、中国語メタファーにおけるテナー、車両、グラウンドを認識するLarge Language Models(LLMs)の能力を高めるために提案されている。
提案されたモデルは、Subtask 1のトラック1で3位、Subtask 1のトラック2で1位、NLPCC-2024共有タスク9で2番目のトラック2で1位となった。
- 参考スコア(独自算出の注目度): 7.1588490359143115
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Metaphors are common in everyday language, and the identification and understanding of metaphors are facilitated by models to achieve a better understanding of the text. Metaphors are mainly identified and generated by pre-trained models in existing research, but situations, where tenors or vehicles are not included in the metaphor, cannot be handled. The problem can be effectively solved by using Large Language Models (LLMs), but significant room for exploration remains in this early-stage research area. A multi-stage generative heuristic-enhanced prompt framework is proposed in this study to enhance the ability of LLMs to recognize tenors, vehicles, and grounds in Chinese metaphors. In the first stage, a small model is trained to obtain the required confidence score for answer candidate generation. In the second stage, questions are clustered and sampled according to specific rules. Finally, the heuristic-enhanced prompt needed is formed by combining the generated answer candidates and demonstrations. The proposed model achieved 3rd place in Track 1 of Subtask 1, 1st place in Track 2 of Subtask 1, and 1st place in both tracks of Subtask 2 at the NLPCC-2024 Shared Task 9.
- Abstract(参考訳): メタファーは日常言語では一般的であり、メタファーの識別と理解はモデルによって促進され、テキストの理解を深める。
メタファーは主に既存の研究で事前訓練されたモデルによって識別され、生成されるが、テナーや車両がメタファーに含まれていない状況は処理できない。
この問題はLarge Language Models (LLMs) を用いて効果的に解けるが、この初期段階の研究領域では探索のための重要な余地が残っている。
本研究は,中国メタファーのテナー,車両,地盤の認識能力を高めるため,多段階のヒューリスティック・プロンプト・フレームワークを提案する。
第1段階では、回答候補生成に必要な信頼スコアを得るために、小さなモデルを訓練する。
第2段階では、質問は特定のルールに従ってクラスタ化され、サンプリングされる。
最後に、生成した回答候補とデモを組み合わせることで、ヒューリスティックに強化されたプロンプトを形成する。
提案されたモデルは、Subtask 1のトラック1で3位、Subtask 1のトラック2で1位、NLPCC-2024共有タスク9で2番目のトラック2で1位となった。
関連論文リスト
- Overview of the NLPCC 2024 Shared Task on Chinese Metaphor Generation [17.328775340148393]
本稿は,第13回CCF自然言語処理・中国語コンピューティング会議(NLPCC 2024)で開催されている,中国語メタファ生成における共有タスクの結果について述べる。
この共有タスクの目的は、機械学習技術を用いて中国語の比喩を生成し、比喩文の基本成分を効果的に識別することである。
論文 参考訳(メタデータ) (2024-08-08T11:29:43Z) - Team QUST at SemEval-2023 Task 3: A Comprehensive Study of Monolingual
and Multilingual Approaches for Detecting Online News Genre, Framing and
Persuasion Techniques [0.030458514384586396]
本稿では,SemEval2023タスク3におけるチームQUSTの参加について述べる。
モノリンガルモデルは、まず多数クラスのアンダーサンプリングを用いて評価される。
事前学習された多言語モデルは、クラス重みとサンプル重みの組み合わせで微調整される。
論文 参考訳(メタデータ) (2023-04-09T08:14:01Z) - SLUE Phase-2: A Benchmark Suite of Diverse Spoken Language Understanding
Tasks [88.4408774253634]
音声言語理解(SLU)タスクは、音声研究コミュニティで何十年にもわたって研究されてきた。
SLUタスクベンチマークはそれほど多くはなく、既存のベンチマークの多くは、すべての研究者が自由に利用できないデータを使っている。
最近の研究は、いくつかのタスクにそのようなベンチマークを導入し始めている。
論文 参考訳(メタデータ) (2022-12-20T18:39:59Z) - MiQA: A Benchmark for Inference on Metaphorical Questions [5.32836690371986]
本稿では,従来のメタファを用いた大規模言語モデルの推論能力を評価するためのベンチマークを提案する。
本稿では,バイナリ選択タスクにおける最先端の事前学習モデルの性能について検討する。
論文 参考訳(メタデータ) (2022-10-14T17:46:05Z) - Don't Copy the Teacher: Data and Model Challenges in Embodied Dialogue [92.01165203498299]
後続の身体的対話命令は、自然言語交換から複雑なタスクのシーケンスを完了させるエージェントを必要とする。
本稿では,模倣学習(IL)と関連する低レベルメトリクスが,実際には誤解を招くものであり,具体的対話研究の目標と一致していないことを論じる。
論文 参考訳(メタデータ) (2022-10-10T05:51:40Z) - WaBERT: A Low-resource End-to-end Model for Spoken Language
Understanding and Speech-to-BERT Alignment [2.7505260301752763]
本稿では,SLUタスクのための音声モデルと言語モデルを組み合わせた,新しいエンドツーエンドモデルを提案する。
WaBERTは事前訓練された音声と言語モデルに基づいているため、スクラッチからのトレーニングは必要ない。
論文 参考訳(メタデータ) (2022-04-22T02:14:40Z) - An Exploration of Prompt Tuning on Generative Spoken Language Model for
Speech Processing Tasks [112.1942546460814]
生成音声言語モデル(GSLM)に基づく音声処理タスクの即時チューニングパラダイムの最初の検討について報告する。
実験結果から, 学習可能なパラメータが少ない音声分類タスクにおいて, 高精度なダウンストリームモデルよりも, 即時チューニング手法が競合性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2022-03-31T03:26:55Z) - Probing Task-Oriented Dialogue Representation from Language Models [106.02947285212132]
本稿では,タスク指向対話タスクにおいて,どのモデルが本質的に最も有意義な表現を担っているかを明らかにするために,事前学習された言語モデルについて検討する。
我々は、アノテートラベルを教師付き方法で固定された事前学習言語モデルの上に、分類器プローブとしてフィードフォワード層を微調整する。
論文 参考訳(メタデータ) (2020-10-26T21:34:39Z) - SPLAT: Speech-Language Joint Pre-Training for Spoken Language
Understanding [61.02342238771685]
音声理解には、入力音響信号を解析してその言語内容を理解し、予測するモデルが必要である。
大規模無注釈音声やテキストからリッチな表現を学習するために,様々な事前学習手法が提案されている。
音声と言語モジュールを協調的に事前学習するための,新しい半教師付き学習フレームワークであるSPLATを提案する。
論文 参考訳(メタデータ) (2020-10-05T19:29:49Z) - Enhancing Answer Boundary Detection for Multilingual Machine Reading
Comprehension [86.1617182312817]
そこで我々は,句境界管理を付加するために,微調整段階における2つの補助的タスクを提案する。
混合機械読解タスクは、質問または通過を他の言語に翻訳し、言語横断の問合せペアを構築する。
Webから抽出した知識フレーズを活用する言語に依存しない知識マスキングタスク。
論文 参考訳(メタデータ) (2020-04-29T10:44:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。