論文の概要: HuAMR: A Hungarian AMR Parser and Dataset
- arxiv url: http://arxiv.org/abs/2502.20552v1
- Date: Thu, 27 Feb 2025 21:48:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-03 13:42:41.413188
- Title: HuAMR: A Hungarian AMR Parser and Dataset
- Title(参考訳): HuAMR: ハンガリーのAMRパーザとデータセット
- Authors: Botond Barta, Endre Hamerlik, Milán Konor Nyist, Judit Ács,
- Abstract要約: 本稿では,最初の抽象的意味表現(AMR)データセットであるHuaMRについて紹介する。
HuAMRを作成するために、私たちはLlama-3.1-70Bを使用し、銀標準のAMRアノテーションを自動的に生成しました。
- 参考スコア(独自算出の注目度): 0.20499240875881997
- License:
- Abstract: We present HuAMR, the first Abstract Meaning Representation (AMR) dataset and a suite of large language model-based AMR parsers for Hungarian, targeting the scarcity of semantic resources for non-English languages. To create HuAMR, we employed Llama-3.1-70B to automatically generate silver-standard AMR annotations, which we then refined manually to ensure quality. Building on this dataset, we investigate how different model architectures - mT5 Large and Llama-3.2-1B - and fine-tuning strategies affect AMR parsing performance. While incorporating silver-standard AMRs from Llama-3.1-70B into the training data of smaller models does not consistently boost overall scores, our results show that these techniques effectively enhance parsing accuracy on Hungarian news data (the domain of HuAMR). We evaluate our parsers using Smatch scores and confirm the potential of HuAMR and our parsers for advancing semantic parsing research.
- Abstract(参考訳): 本稿では,最初の抽象的意味表現(AMR)データセットであるHuaMRについて紹介する。
HuAMRを作成するために、私たちはLlama-3.1-70Bを使用し、銀標準のAMRアノテーションを自動的に生成しました。
このデータセットに基づいて、mT5 LargeとLlama-3.2-1Bの異なるモデルアーキテクチャと微調整戦略がAMR解析のパフォーマンスに与える影響を調査する。
Llama-3.1-70Bの銀標準AMRを小型モデルのトレーニングデータに組み込むことは、総合的なスコアを継続的に向上させるわけではないが、これらの手法はハンガリーのニュースデータ(HuAMRの領域)の解析精度を効果的に向上させることを示す。
Smatchスコアを用いてパーサーを評価し,セマンティックパーシング研究を進めるためのHuAMRとパーサーの可能性を確認する。
関連論文リスト
- Leveraging Denoised Abstract Meaning Representation for Grammatical
Error Correction [53.55440811942249]
文法的誤り訂正(英: Grammatical Error Correction, GEC)とは、誤りのある文を文法的に正しい、意味的に一貫性のある、一貫性のある文に修正する作業である。
本稿では,AMRを付加知識として組み込んだSeq-to-seqモデルであるAMR-GECを提案する。
論文 参考訳(メタデータ) (2023-07-05T09:06:56Z) - AMRs Assemble! Learning to Ensemble with Autoregressive Models for AMR
Parsing [38.731641198934646]
アンサンブルモデルがSMATCH計量の弱点を利用してより高いスコアを得る方法を示すが、時にグラフが破損することがある。
本稿では,トランスフォーマーモデルに基づく2つの新しいアンサンブル戦略を提案する。
論文 参考訳(メタデータ) (2023-06-19T08:58:47Z) - An AMR-based Link Prediction Approach for Document-level Event Argument
Extraction [51.77733454436013]
文書レベルのイベント調停抽出(文書レベルEAE)のための抽象的意味表現(AMR)を導入した最近の研究動向
本研究では,AEをAMRグラフ上のリンク予測問題として再検討する。
本稿では,より少ない情報量のサブグラフやエッジタイプを圧縮し,スパン情報を統合し,同じ文書内の事象をハイライトする新たなグラフ構造であるTalored AMR Graph(TAG)を提案する。
論文 参考訳(メタデータ) (2023-05-30T16:07:48Z) - AMR Parsing with Instruction Fine-tuned Pre-trained Language Models [21.767812442354387]
そこで本稿では,FLAN-T5 命令を微調整した言語モデルを用いて AMR 解析を行う。
AMR2.0,AMR3.0,BioAMRなどの各種AMR解析タスクに関する実験により,FLAN-T5微調整モデルが従来の最先端モデルより優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-04-24T17:12:17Z) - MV-JAR: Masked Voxel Jigsaw and Reconstruction for LiDAR-Based
Self-Supervised Pre-Training [58.07391711548269]
Masked Voxel Jigsaw and Reconstruction (MV-JAR) method for LiDAR-based self-supervised pre-training
Masked Voxel Jigsaw and Reconstruction (MV-JAR) method for LiDAR-based self-supervised pre-training
論文 参考訳(メタデータ) (2023-03-23T17:59:02Z) - Smelting Gold and Silver for Improved Multilingual AMR-to-Text
Generation [55.117031558677674]
AMRアノテーションの自動生成技術について検討する。
我々のモデルは、生成した銀AMRを利用する銀(機械翻訳)文で金AMRを訓練した。
我々のモデルは、ドイツ、イタリア、スペイン、中国の芸術のこれまでの状態を大きく上回っている。
論文 参考訳(メタデータ) (2021-09-08T17:55:46Z) - Enhancing the Generalization for Intent Classification and Out-of-Domain
Detection in SLU [70.44344060176952]
インテント分類は、音声言語理解(SLU)における主要な課題である
近年の研究では、余分なデータやラベルを使用することで、OOD検出性能が向上することが示されている。
本稿では、IND意図分類とOOD検出の両方をサポートしながら、INDデータのみを用いてモデルを訓練することを提案する。
論文 参考訳(メタデータ) (2021-06-28T08:27:38Z) - Probabilistic, Structure-Aware Algorithms for Improved Variety,
Accuracy, and Coverage of AMR Alignments [9.74672460306765]
本稿では,抽象的意味表現(AMR)の成分を英文で並べるアルゴリズムを提案する。
教師なし学習をグラフと組み合わせて活用し、前回のAMRから両世界を最大限に活用する。
提案手法は,従来考えられていたより多様なAMRサブ構造を網羅し,ノードとエッジのより高いカバレッジを実現し,精度の高いAMRサブ構造を実現する。
論文 参考訳(メタデータ) (2021-06-10T18:46:32Z) - Improving AMR Parsing with Sequence-to-Sequence Pre-training [39.33133978535497]
本稿では,Sequence-to-Sequence (seq2seq) AMR解析に焦点を当てる。
単体および関節の両方で事前学習モデルを構築するために,Seq2seq事前学習手法を提案する。
実験の結果,シングルモデルとジョイントモデルの両方で性能が有意に向上した。
論文 参考訳(メタデータ) (2020-10-05T04:32:47Z) - Dynamic Data Selection and Weighting for Iterative Back-Translation [116.14378571769045]
本稿では,反復的バックトランスレーションモデルのためのカリキュラム学習戦略を提案する。
我々は、ドメイン適応、低リソース、高リソースMT設定に関するモデルを評価する。
実験の結果,提案手法は競争基準値よりも最大1.8 BLEU点の改善を達成できた。
論文 参考訳(メタデータ) (2020-04-07T19:49:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。