論文の概要: UCCA's Foundational Layer: Annotation Guidelines v2.1
- arxiv url: http://arxiv.org/abs/2012.15810v1
- Date: Thu, 31 Dec 2020 18:34:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-17 20:59:13.394805
- Title: UCCA's Foundational Layer: Annotation Guidelines v2.1
- Title(参考訳): UCCAの基盤層:アノテーションガイドライン v2.1
- Authors: Omri Abend, Nathan Schneider, Dotan Dvir, Jakob Prange, Ari Rappoport
- Abstract要約: これはUniversal Cognitive Conceptualのアノテーションマニュアルです。
UCCAは、タイポロジー言語原理に基づくグラフベースの意味的アノテーションスキームである。
展示を容易にするために、これらのガイドラインは英語で主に例を示します。
- 参考スコア(独自算出の注目度): 32.48504701971324
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This is the annotation manual for Universal Conceptual Cognitive Annotation
(UCCA; Abend and Rappoport, 2013), specifically the Foundational Layer. UCCA is
a graph-based semantic annotation scheme based on typological linguistic
principles. It has been applied to several languages; for ease of exposition
these guidelines give examples mainly in English. New annotators may wish to
start with the tutorial on the UCCA framework (Abend et al., 2020). Further
resources are available at the project homepage:
https://universalconceptualcognitiveannotation.github.io
- Abstract(参考訳): これはUniversal Conceptual Cognitive Annotation (UCCA; Abend and Rappoport, 2013)の注釈マニュアルであり、特にFoundational Layerである。
uccaはタイポロジー言語原理に基づいたグラフに基づく意味的アノテーションスキームである。
いくつかの言語に適用されており、説明の容易さのために、これらのガイドラインは英語で主に例を挙げている。
新しいアノテーションはUCCAフレームワークのチュートリアル(Abend et al., 2020)から始めることができる。
さらなるリソースはプロジェクトのホームページで入手できる。
関連論文リスト
- Gloss-Free End-to-End Sign Language Translation [59.28829048788345]
我々はGloFE(Gloss-Free End-to-end手話翻訳フレームワーク)を設計する。
本手法は,信号の共通意味と対応する音声翻訳を利用して,光沢のない環境下でのSLTの性能を向上させる。
OpenASLやHow2Signなど,大規模データセットの最先端結果を得た。
論文 参考訳(メタデータ) (2023-05-22T09:57:43Z) - Chinese Open Instruction Generalist: A Preliminary Release [33.81265396916227]
本研究では,4つのサブタスクの固有特性に適応した各種手法による中国語指導データセットの作成を目的としたプロジェクトを提案する。
我々は、品質を保証するために手作業でチェックされた約200万の中国語のインストラクションチューニングサンプルを収集した。
既存の英語と中国語の命令コーパスを要約し、新たに構築された中国語の命令コーパスの潜在的な応用を簡潔に述べる。
論文 参考訳(メタデータ) (2023-04-17T04:45:06Z) - Prompt, Generate, then Cache: Cascade of Foundation Models makes Strong
Few-shot Learners [55.119101947682715]
CaFoは、様々な事前学習パラダイムの様々な事前知識を取り入れた、ファウンデーションのカスケードモデルである。
私たちのCaFoには、CLIPの言語コントラスト知識、DINOの視覚コントラスト知識、DALL-Eの視覚生成知識、GPT-3の言語生成知識が含まれています。
論文 参考訳(メタデータ) (2023-03-03T18:58:16Z) - Chinese Discourse Annotation Reference Manual [9.367612782346207]
この文書は、中国語における修辞構造論(RST)の注釈に関する広範なガイドラインと例を提供している。
まず、RSTアノテーションのためのデータ準備のための前処理手順を紹介する。
第二に、テキストを初等談話単位(EDU)に分割するための統語的基準について議論する。
最後に、異なるジャンルにおける談話関係を定義し、区別する例を示す。
論文 参考訳(メタデータ) (2022-10-11T11:02:42Z) - Self-Attentive Constituency Parsing for UCCA-based Semantic Parsing [0.0]
グラフベースの表現は、テキストの意味構造を表現する意味表現のアプローチの1つである。
本稿では主にUCCAグラフに基づく意味表現に焦点を当てる。
低リソース言語に対するゼロショット学習と少数ショット学習を用いた単一言語タスクとクロスランガルタスクの両方の結果を示す。
論文 参考訳(メタデータ) (2021-10-01T19:10:18Z) - Rich Semantics Improve Few-shot Learning [49.11659525563236]
アノテーションコストを最小限に抑えながら取得できる「クラスレベル」言語記述を用いることで、少ない学習性能を向上できることを示す。
我々は,視覚トークンと意味トークンを関連付けるための前方および後方エンコーディング機構を開発した。
論文 参考訳(メタデータ) (2021-04-26T16:48:27Z) - Learning to Recognize Actions on Objects in Egocentric Video with
Attention Dictionaries [51.48859591280838]
ビデオアクション認識のためのディープニューラルアーキテクチャであるEgoACOを紹介する。
フレームレベルの機能からアクションコンテキストオブジェクト記述子をプールする。
Capは学習可能な重みの辞書を使って、最も関連性の高い特徴領域からプールする。
論文 参考訳(メタデータ) (2021-02-16T10:26:04Z) - The jsRealB Text Realizer: Organization and Use Cases [0.6091702876917281]
jsRealBは、英語またはフランス語の文のためにJavaScriptで書かれた表面実現剤です。
これは、Webページ内またはnode.jsモジュールとして使用できます。
論文 参考訳(メタデータ) (2020-12-31T03:32:58Z) - Infusing Finetuning with Semantic Dependencies [62.37697048781823]
シンタックスとは異なり、セマンティクスは今日の事前訓練モデルによって表面化されないことを示す。
次に、畳み込みグラフエンコーダを使用して、タスク固有の微調整にセマンティック解析を明示的に組み込む。
論文 参考訳(メタデータ) (2020-12-10T01:27:24Z) - Universal Dependencies v2: An Evergrowing Multilingual Treebank
Collection [33.86322085911299]
Universal Dependenciesは、多くの言語に対して言語横断的に一貫性のあるツリーバンクアノテーションを作成するためのオープンコミュニティの取り組みである。
ガイドライン(UD v2)のバージョン2を説明し、UD v1からUD v2への大きな変更について論じ、現在90言語で利用可能なツリーバンクについて概説する。
論文 参考訳(メタデータ) (2020-04-22T15:38:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。