論文の概要: A Two-Stage Method for Chinese AMR Parsing
- arxiv url: http://arxiv.org/abs/2209.14512v1
- Date: Thu, 29 Sep 2022 02:17:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 16:10:31.020605
- Title: A Two-Stage Method for Chinese AMR Parsing
- Title(参考訳): 中国語amr解析のための二段階法
- Authors: Liang Chen, Bofei Gao, Baobao Chang
- Abstract要約: 本研究では、アライメント生成を伴う中国語AMRパーシングを行うための2段階の手法を提案する。
このモデルではCAMR 2.0テストセットとCAMRP-2022のブラインドテストセットで0.7756と0.7074のAlign-Smatch F1スコアを個別に達成している。
- 参考スコア(独自算出の注目度): 22.263126752433443
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we provide a detailed description of our system at CAMRP-2022
evaluation. We firstly propose a two-stage method to conduct Chinese AMR
Parsing with alignment generation, which includes Concept-Prediction and
Relation-Prediction stages. Our model achieves 0.7756 and 0.7074 Align-Smatch
F1 scores on the CAMR 2.0 test set and the blind-test set of CAMRP-2022
individually. We also analyze the result and the limitation such as the error
propagation and class imbalance problem we conclude in the current method. Code
and the trained models are released at
https://github.com/PKUnlp-icler/Two-Stage-CAMRP for reproduction.
- Abstract(参考訳): 本稿では,CAMRP-2022評価におけるシステムの詳細について述べる。
まず,概念予測と関係予測を含むアライメント生成を伴う中国語amr解析を行う2段階法を提案する。
本モデルはcamr 2.0テストセットとcamrp-2022のブラインドテストセットで0.7756および0.7074アライメント一致f1スコアを個別に達成する。
また,本手法で結論づけた誤差伝播やクラス不均衡問題などの結果と限界についても分析した。
コードとトレーニングされたモデルは、再現のためにhttps://github.com/PKUnlp-icler/Two-Stage-CAMRPでリリースされている。
関連論文リスト
- Robust Fine-tuning of Zero-shot Models via Variance Reduction [56.360865951192324]
微調整ゼロショットモデルの場合、このデシドラトゥムは細調整モデルで、分布内(ID)と分布外(OOD)の両方で優れる。
トレードオフを伴わずに最適なIDとOODの精度を同時に達成できるサンプルワイズアンサンブル手法を提案する。
論文 参考訳(メタデータ) (2024-11-11T13:13:39Z) - A LLM-Based Ranking Method for the Evaluation of Automatic Counter-Narrative Generation [14.064465097974836]
本稿では,Large Language Model (LLM) を用いた対数ナラティブ(CN)生成の評価手法を提案する。
従来の自動指標は, 人間の判断と相関が低く, 生成したCNと人間の知覚との微妙な関係を捉えることができないことを示す。
論文 参考訳(メタデータ) (2024-06-21T15:11:33Z) - NJUST-KMG at TRAC-2024 Tasks 1 and 2: Offline Harm Potential Identification [21.530041761397616]
本報告では, TRAC-2024オフラインハーム電位密度化法について詳述する。
この調査は、いくつかのインドの言語におけるソーシャルメディアのコメントからなる豊富なデータセットを利用した。
F1値はそれぞれ0.73と0.96の2つの異なるトラックで2位にランクインした。
論文 参考訳(メタデータ) (2024-03-26T14:09:49Z) - Large Language Models aren't all that you need [0.0]
本稿では,SemEval 2023 Task 2: MultiCoNER IIを解くために構築されたアーキテクチャとシステムについて述べる。
a)従来のランダムフィールドモデルと(b)カスタマイズされた頭で微調整されたLarge Language Model(LLM)の2つのアプローチを評価し、その2つのアプローチを比較した。
論文 参考訳(メタデータ) (2024-01-01T08:32:50Z) - Posterior Sampling for Competitive RL: Function Approximation and
Partial Observation [96.73342437947014]
我々は,ゼロサムマルコフゲーム(MG)に焦点をあてる。
そこで本研究では,両プレイヤーがナッシュ平衡を学習するためのモデルベース自己再生後サンプリング手法を提案する。
本稿では,潜在的な部分観測可能性を持つ逆MG学習のためのモデルに基づく後部サンプリング手法を提案する。
論文 参考訳(メタデータ) (2023-10-30T17:59:26Z) - Consistency Trajectory Models: Learning Probability Flow ODE Trajectory of Diffusion [56.38386580040991]
Consistency Trajectory Model (CTM) は Consistency Models (CM) の一般化である
CTMは、対戦訓練とスコアマッチング損失を効果的に組み合わせることで、パフォーマンスを向上させる。
CMとは異なり、CTMのスコア関数へのアクセスは、確立された制御可能/条件生成メソッドの採用を合理化することができる。
論文 参考訳(メタデータ) (2023-10-01T05:07:17Z) - IDIAPers @ Causal News Corpus 2022: Efficient Causal Relation
Identification Through a Prompt-based Few-shot Approach [3.4423596432619754]
我々は、微調整言語モデル(LM)のための単純だが相補的手法のセットを活用することで、因果関係同定(CRI)タスクに対処する。
我々は、CRIタスクをマスキング言語モデリング問題(MLM)として扱う微調整LMのプロンプトベースの予測手法に従う。
本手法の性能を,データセット全体で訓練されたアンサンブル手法と比較する。
論文 参考訳(メタデータ) (2022-09-08T16:03:50Z) - Unifying Language Learning Paradigms [96.35981503087567]
データセットやセットアップ全体にわたって普遍的に有効である事前学習モデルのための統一的なフレームワークを提案する。
本研究では, 事前学習対象を相互に配置し, 異なる対象間の補間を効果的に行う方法を示す。
また,テキスト内学習において,ゼロショットSuperGLUEで175B GPT-3,ワンショット要約でT5-XXLの性能を3倍に向上させた。
論文 参考訳(メタデータ) (2022-05-10T19:32:20Z) - Team Enigma at ArgMining-EMNLP 2021: Leveraging Pre-trained Language
Models for Key Point Matching [0.0]
本稿では,ArgMining 2021におけるキーポイント分析共有タスクへのシステム記述について述べる。
入力(トピック、キーポイント、引数)から抽出した追加データや特徴を組み込んで、パフォーマンスを向上させるとともに、事前訓練された言語モデルの既存の状態を活用しました。
評価フェーズでは,mAP厳格化,mAP緩和スコアが0.872,0.966となり,リーダーボードでは5位となった。
論文 参考訳(メタデータ) (2021-10-24T07:10:39Z) - Semi-supervised Contrastive Learning with Similarity Co-calibration [72.38187308270135]
SsCL(Semi-supervised Contrastive Learning)と呼ばれる新しいトレーニング戦略を提案する。
ssclは、自己教師付き学習におけるよく知られたコントラスト損失と、半教師付き学習におけるクロスエントロピー損失を組み合わせる。
SsCLはより差別的な表現を生じさせ,ショット学習に有益であることを示す。
論文 参考訳(メタデータ) (2021-05-16T09:13:56Z) - Contrastive Prototype Learning with Augmented Embeddings for Few-Shot
Learning [58.2091760793799]
拡張埋め込み(CPLAE)モデルを用いた新しいコントラスト型プロトタイプ学習を提案する。
クラスプロトタイプをアンカーとして、CPLは、同じクラスのクエリサンプルを、異なるクラスのサンプルを、さらに遠くに引き出すことを目的としている。
いくつかのベンチマークによる大規模な実験により,提案したCPLAEが新たな最先端を実現することが示された。
論文 参考訳(メタデータ) (2021-01-23T13:22:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。