論文の概要: SIGMORPHON 2023 Shared Task of Interlinear Glossing: Baseline Model
- arxiv url: http://arxiv.org/abs/2303.14234v1
- Date: Fri, 24 Mar 2023 18:59:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 21:17:29.910167
- Title: SIGMORPHON 2023 Shared Task of Interlinear Glossing: Baseline Model
- Title(参考訳): SIGMORPHON 2023 インターライングロースの共有タスク:ベースラインモデル
- Authors: Michael Ginn
- Abstract要約: 本稿では,SIGMORPHON 2023共有通信のベースラインシステムについて述べる。
本システムでは,トランスアーキテクチャを用いて,グロス生成をシーケンスラベリングタスクとして扱う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Language documentation is a critical aspect of language preservation, often
including the creation of Interlinear Glossed Text (IGT). Creating IGT is
time-consuming and tedious, and automating the process can save valuable
annotator effort.
This paper describes the baseline system for the SIGMORPHON 2023 Shared Task
of Interlinear Glossing. In our system, we utilize a transformer architecture
and treat gloss generation as a sequence labelling task.
- Abstract(参考訳): 言語文書は言語保存の重要な側面であり、しばしばInterlinear Glossed Text (IGT) の作成を含む。
IGTの作成は時間と手間がかかり、プロセスの自動化は貴重なアノテータの労力を節約します。
本稿では,sigmorphon 2023における線間光沢作業のベースラインシステムについて述べる。
本システムでは,トランスアーキテクチャを用いて,グロス生成をシーケンスラベリングタスクとして扱う。
関連論文リスト
- Can we teach language models to gloss endangered languages? [10.698704803396723]
Interlinear glossed text (IGT) は言語ドキュメントプロジェクトにおいて一般的なフォーマットであり、各形態素には記述的なアノテーションが付けられている。
我々は,大規模言語モデル (LLM) が,従来の訓練を使わずに,文脈内学習と相互学習の課題に有効であるかどうかを考察する。
LLMベースの手法は、トレーニングを全く必要とせず、標準的なトランスフォーマーベースラインを上回ります。
論文 参考訳(メタデータ) (2024-06-27T05:17:04Z) - Adaptable Logical Control for Large Language Models [68.27725600175013]
Ctrl-Gは、推論時にモデル生成のトラクタブルでフレキシブルな制御を容易にする適応可能なフレームワークである。
TULU2-7Bモデルに適用したCtrl-Gは、インタラクティブテキスト編集のタスクにおいて、GPT3.5とGPT4より優れていることを示す。
論文 参考訳(メタデータ) (2024-06-19T23:47:59Z) - Embedded Translations for Low-resource Automated Glossing [11.964276799347642]
我々は,線間グラフトテキストから抽出した組込み翻訳情報を用いて,ハードアテンショナル・ニューラル・モデルを強化する。
グロース出力を生成する文字レベルデコーダを提案する。
本結果は,システムの性能向上における翻訳情報の重要性を浮き彫りにした。
論文 参考訳(メタデータ) (2024-03-13T02:23:13Z) - Symbolic Planning and Code Generation for Grounded Dialogue [78.48668501764385]
大規模言語モデル(LLM)は、テキストとコードの両方の処理と生成に優れる。
本稿では,LLMをシンボリックプランナと接地コード実行で構成することで,欠点に対処する,モジュール型で解釈可能な接地対話システムを提案する。
我々のシステムは、人間の評価におけるタスク成功率を最も困難な環境で56%から69%に改善するなど、従来の最先端技術よりも大幅に優れています。
論文 参考訳(メタデータ) (2023-10-26T04:22:23Z) - Gloss-free Sign Language Translation: Improving from Visual-Language
Pretraining [56.26550923909137]
Gloss-Free Sign Language Translation (SLT) はドメイン横断性のために難しい課題である。
視覚言語事前学習(GFSLT-)に基づく新しいGross-free SLTを提案する。
i) コントラスト言語-画像事前学習とマスク付き自己教師付き学習を統合して,視覚的表現とテキスト的表現のセマンティックギャップをブリッジするプレタスクを作成し,マスク付き文を復元すること,(ii) 事前訓練されたビジュアルおよびテキストデコーダのパラメータを継承するエンコーダ-デコーダ-のような構造を持つエンドツーエンドアーキテクチャを構築すること,である。
論文 参考訳(メタデータ) (2023-07-27T10:59:18Z) - Harnessing Explanations: LLM-to-LM Interpreter for Enhanced
Text-Attributed Graph Representation Learning [51.90524745663737]
重要なイノベーションは、機能として説明を使用することで、下流タスクにおけるGNNのパフォーマンス向上に利用できます。
提案手法は、確立されたTAGデータセットの最先端結果を実現する。
本手法はトレーニングを著しく高速化し,ogbn-arxivのベースラインに最も近い2.88倍の改善を実現した。
論文 参考訳(メタデータ) (2023-05-31T03:18:03Z) - Better Sign Language Translation with Monolingual Data [6.845232643246564]
署名言語変換(SLT)システムは、大規模並列G2Tペアの可用性に大きく依存している。
本稿では,大規模対象のモノリンガルデータを擬似グルースに自動的に書き起こす簡易かつ効率的なルール変換法を提案する。
実験の結果,提案手法はSLTの性能を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2023-04-21T09:39:54Z) - Towards Document-Level Paraphrase Generation with Sentence Rewriting and
Reordering [88.08581016329398]
文書レベルのパラフレーズ生成のためのCoRPG(Coherence Relation Guided Paraphrase Generation)を提案する。
グラフGRUを用いて、コヒーレンス関係グラフを符号化し、各文のコヒーレンス対応表現を得る。
我々のモデルは、より多様性とセマンティックな保存を伴う文書パラフレーズを生成することができる。
論文 参考訳(メタデータ) (2021-09-15T05:53:40Z) - ReGen: Reinforcement Learning for Text and Knowledge Base Generation
using Pretrained Language Models [25.529100721684305]
本稿では,Reinforcement Learning (RL) を利用した双方向のテキストとグラフを生成するReGenを提案する。
本システムは,テキスト・ツー・グラフ・ツー・テキスト生成タスクにおける WebNLG 2020+ Challenge の公開結果を大幅に改善することで,WebNLG+ 2020 の最先端結果を提供する。
論文 参考訳(メタデータ) (2021-08-27T19:37:12Z) - Priberam Labs at the NTCIR-15 SHINRA2020-ML: Classification Task [2.0985487163597147]
ShiNRA 2020-MLタスクは、ウィキペディアページを利用して、対応するエンティティを268階層のカテゴリに分類する。
BERTが生み出す文脈的埋め込みに基づく3つのモデルを提案する。
微調整のプロセスでは見られないものを含め、さまざまな言語で優れたパフォーマンスを実現できたのです。
論文 参考訳(メタデータ) (2021-05-12T11:49:19Z) - POINTER: Constrained Progressive Text Generation via Insertion-based
Generative Pre-training [93.79766670391618]
ハードコントラストテキスト生成のための新しい挿入ベースアプローチであるPOINTERを提案する。
提案手法は,既存のトークン間で段階的に新しいトークンを並列に挿入することによって動作する。
結果として生じる粗大な階層構造は、生成プロセスを直感的で解釈可能である。
論文 参考訳(メタデータ) (2020-05-01T18:11:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。