論文の概要: Annotation Uncertainty in the Context of Grammatical Change
- arxiv url: http://arxiv.org/abs/2105.07270v1
- Date: Sat, 15 May 2021 17:45:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-18 15:09:31.630538
- Title: Annotation Uncertainty in the Context of Grammatical Change
- Title(参考訳): 文法変化の文脈における注釈の不確かさ
- Authors: Marie-Luis Merten, Marcel Wever, Michaela Geierhos, Doris Tophinke,
Eyke H\"ullermeier
- Abstract要約: 本稿では、大きなテキストコーポラにおけるアノテーションの文脈における不確実性の概念について詳述する。
アノテーションの不確実性をより詳細に調べ,その情報源を特定し,日々のアノテーション実践で遭遇するさまざまな不確実性や自然の理解を深める。
この記事は、コーパスプロジェクト、言語学、コンピュータサイエンスに関連する主要な科学分野の視点を調整する試みと見なすことができます。
- 参考スコア(独自算出の注目度): 0.05249805590164901
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper elaborates on the notion of uncertainty in the context of
annotation in large text corpora, specifically focusing on (but not limited to)
historical languages. Such uncertainty might be due to inherent properties of
the language, for example, linguistic ambiguity and overlapping categories of
linguistic description, but could also be caused by lacking annotation
expertise. By examining annotation uncertainty in more detail, we identify the
sources and deepen our understanding of the nature and different types of
uncertainty encountered in daily annotation practice. Moreover, some practical
implications of our theoretical findings are also discussed. Last but not
least, this article can be seen as an attempt to reconcile the perspectives of
the main scientific disciplines involved in corpus projects, linguistics and
computer science, to develop a unified view and to highlight the potential
synergies between these disciplines.
- Abstract(参考訳): 本稿では,大文字コーパスにおけるアノテーションの文脈における不確実性の概念について詳述する。
このような不確実性は言語の固有の性質、例えば言語の曖昧さと重複する言語記述のカテゴリーに起因する可能性があるが、アノテーションの専門知識の欠如によっても引き起こされる可能性がある。
アノテーションの不確実性をより詳細に調べ,その情報源を特定し,日々のアノテーション実践で遭遇するさまざまな不確実性や自然の理解を深める。
また, 理論的知見の実用的意義についても考察した。
最後に、この記事は、コーパスプロジェクト、言語学、コンピュータ科学に関わる主要な科学分野の視点を整理し、統一された視点を発達させ、これらの分野間の潜在的な相乗効果を強調する試みと見なすことができる。
関連論文リスト
- Language Models as Models of Language [0.0]
この章は、理論言語学への現代言語モデルの潜在的貢献について批判的に考察する。
言語モデルが階層的な構文構造を学習し,様々な言語現象に対する感受性を示すことを示唆する経験的証拠の蓄積を概説する。
私は、理論言語学者と計算研究者の緊密な協力が貴重な洞察をもたらすと結論づける。
論文 参考訳(メタデータ) (2024-08-13T18:26:04Z) - A Survey on Lexical Ambiguity Detection and Word Sense Disambiguation [0.0]
本稿では自然言語処理(NLP)分野における言語におけるあいまいさの理解と解決に焦点を当てた手法について検討する。
ディープラーニング技術から、WordNetのような語彙的リソースや知識グラフの活用まで、さまざまなアプローチを概説している。
本研究は, 感覚アノテートコーパスの不足, 非公式な臨床テキストの複雑さなど, この分野における永続的な課題を明らかにした。
論文 参考訳(メタデータ) (2024-03-24T12:58:48Z) - SenteCon: Leveraging Lexicons to Learn Human-Interpretable Language
Representations [51.08119762844217]
SenteConは、深層言語表現に人間の解釈可能性を導入する方法である。
SenteConは、下流タスクにおける予測性能にほとんど、あるいは全くコストをかからない高レベルな解釈性を提供する。
論文 参考訳(メタデータ) (2023-05-24T05:06:28Z) - Natural Language Decompositions of Implicit Content Enable Better Text
Representations [56.85319224208865]
本稿では,暗黙的に伝達されたコンテンツを明示的に考慮したテキスト分析手法を提案する。
我々は大きな言語モデルを用いて、観察されたテキストと推論的に関係する命題の集合を生成する。
本研究は,NLPにおいて,文字のみではなく,観察された言語の背景にある意味をモデル化することが重要であることを示唆する。
論文 参考訳(メタデータ) (2023-05-23T23:45:20Z) - Transparency Helps Reveal When Language Models Learn Meaning [71.96920839263457]
合成データを用いた体系的な実験により,すべての表現が文脈に依存しない意味を持つ言語では,自己回帰型とマスキング型の両方の言語モデルが,表現間の意味的関係をエミュレートする。
自然言語に目を向けると、特定の現象(参照不透明さ)による実験は、現在の言語モデルが自然言語の意味論をうまく表現していないという証拠を増大させる。
論文 参考訳(メタデータ) (2022-10-14T02:35:19Z) - Testing the Ability of Language Models to Interpret Figurative Language [69.59943454934799]
比喩的・比喩的な言語は言論において一般的である。
現代の言語モデルが非リテラルなフレーズをどの程度解釈できるかについては、未解決の疑問が残る。
ウィノグラードスタイルの非文字言語理解タスクであるFig-QAを紹介する。
論文 参考訳(メタデータ) (2022-04-26T23:42:22Z) - A Latent-Variable Model for Intrinsic Probing [93.62808331764072]
固有プローブ構築のための新しい潜在変数定式化を提案する。
我々は、事前訓練された表現が言語間交互に絡み合ったモルフォシンタクスの概念を発達させる経験的証拠を見出した。
論文 参考訳(メタデータ) (2022-01-20T15:01:12Z) - On the proper role of linguistically-oriented deep net analysis in
linguistic theorizing [25.64606911182175]
深層ネットワークは言語発話の受容性について明確な予測を行う理論として扱われるべきである。
このアイデアを真剣に追求する上で、いくつかの障害を克服すれば、私たちは強力な新しい理論ツールを手に入れることになる、と私は主張する。
論文 参考訳(メタデータ) (2021-06-16T10:57:24Z) - On the Faithfulness Measurements for Model Interpretations [100.2730234575114]
ポストホックな解釈は、自然言語処理(NLP)モデルがどのように予測を行うかを明らかにすることを目的とする。
これらの問題に取り組むために,我々は,削除基準,解釈の感度,解釈の安定性という3つの基準から始める。
これらの忠実性概念のデシデラタムに動機づけられ、敵対的領域からのテクニックを採用する新しい解釈方法のクラスを導入する。
論文 参考訳(メタデータ) (2021-04-18T09:19:44Z) - On the Impact of Knowledge-based Linguistic Annotations in the Quality
of Scientific Embeddings [0.0]
我々は, 科学的コーパスから埋め込みを生成するために, 明示的な言語アノテーションを用いた研究を行う。
以上の結果から,組込みにおけるアノテーションの効果は評価作業によってどのように変化するかを示す。
一般に,言語アノテーションを用いた埋め込み学習が,より良い評価結果の獲得に寄与すると考えられる。
論文 参考訳(メタデータ) (2021-04-13T13:51:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。