論文の概要: Representing and Computing Uncertainty in Phonological Reconstruction
- arxiv url: http://arxiv.org/abs/2310.12727v1
- Date: Thu, 19 Oct 2023 13:27:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-20 15:15:56.910544
- Title: Representing and Computing Uncertainty in Phonological Reconstruction
- Title(参考訳): 音韻再構成における不確かさの表現と計算
- Authors: Johann-Mattis List, Nathan W. Hill, Robert Forkel, Frederic Blum
- Abstract要約: 歴史的言語学では本質的にファジィな再現性にもかかわらず、多くの学者は原型の提案において不確かさを表現していない。
本稿では,言語再建における不確実性の表現を可能にする新しい枠組みを提案するとともに,言語データからファジィ再構成を計算するためのワークフローも提供する。
- 参考スコア(独自算出の注目度): 5.284425534494986
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the inherently fuzzy nature of reconstructions in historical
linguistics, most scholars do not represent their uncertainty when proposing
proto-forms. With the increasing success of recently proposed approaches to
automating certain aspects of the traditional comparative method, the formal
representation of proto-forms has also improved. This formalization makes it
possible to address both the representation and the computation of uncertainty.
Building on recent advances in supervised phonological reconstruction, during
which an algorithm learns how to reconstruct words in a given proto-language
relying on previously annotated data, and inspired by improved methods for
automated word prediction from cognate sets, we present a new framework that
allows for the representation of uncertainty in linguistic reconstruction and
also includes a workflow for the computation of fuzzy reconstructions from
linguistic data.
- Abstract(参考訳): 歴史的言語学におけるリコンストラクションの本質的にファジィな性質にもかかわらず、ほとんどの学者は原形を提案する際にその不確かさを表現していない。
従来の比較手法の特定の側面を自動化するための最近提案されたアプローチの成功により、プロトフォームの形式的表現も改善された。
この形式化により、表現と不確実性の計算の両方に対処できる。
教師付き音韻再構築の最近の進歩を基礎として,前述したデータに依拠して単語の再構築法をアルゴリズムが学習し,コグネート集合からの単語自動予測法の改良に触発され,言語再構成における不確実性の表現を可能にするとともに,言語データからのファジィリコンストラクションの計算ワークフローを含む新しい枠組みを提案する。
関連論文リスト
- Hierarchical Contextual Manifold Alignment for Structuring Latent Representations in Large Language Models [7.798982346197703]
潜在トークン表現の組織化は、言語モデルの安定性、一般化、文脈整合性を決定する上で重要な役割を果たす。
コアモデル重みを変化させることなくトークン埋め込みに階層的アライメント手法を導入した。
実験により, 希少なトークン検索, 逆方向, 長距離依存性追跡の改善が示された。
論文 参考訳(メタデータ) (2025-02-06T04:01:27Z) - Latent Lexical Projection in Large Language Models: A Novel Approach to Implicit Representation Refinement [0.0]
ラテントレキシカル射影 (LLP) は、構造化された空間からラテント空間への変換を通じて、レキシカル表現を洗練するために導入された。
LLPは既存の言語モデルアーキテクチャに最適化されたプロジェクション機構を統合する。
評価は、パープレキシティの低下とBLEUスコアの上昇を示し、予測精度と流布率の改善を示唆している。
論文 参考訳(メタデータ) (2025-02-03T23:18:53Z) - Improved Neural Protoform Reconstruction via Reflex Prediction [11.105362395278142]
我々は、プロトフォームはコグネート集合(関連する反射の集合)から推論可能であるだけでなく、プロトフォームからも推論可能であるべきだと主張する。
本稿では,リフレクション予測モデルを用いて,再構成モデルから候補となるプロトフォームをリランクするシステムを提案する。
論文 参考訳(メタデータ) (2024-03-27T17:13:38Z) - On Robustness of Prompt-based Semantic Parsing with Large Pre-trained
Language Model: An Empirical Study on Codex [48.588772371355816]
本稿では,大規模なプロンプトベース言語モデルであるコーデックスの対角的ロバスト性に関する最初の実証的研究について述べる。
この結果から, 最先端の言語モデル(SOTA)は, 慎重に構築された敵の例に対して脆弱であることが示された。
論文 参考訳(メタデータ) (2023-01-30T13:21:00Z) - Neural Unsupervised Reconstruction of Protolanguage Word Forms [34.66200889614538]
古語形態の教師なし再構成に対する最先端のニューラルアプローチを提案する。
我々はこの研究を、より複雑な音韻学的および形態学的変化を捉えることができるニューラルモデルで拡張する。
論文 参考訳(メタデータ) (2022-11-16T05:38:51Z) - Autoregressive Structured Prediction with Language Models [73.11519625765301]
本稿では, PLM を用いた自己回帰的手法を用いて, モデル構造を行動列として記述する。
我々のアプローチは、私たちが見てきた全ての構造化予測タスクにおいて、新しい最先端を実現する。
論文 参考訳(メタデータ) (2022-10-26T13:27:26Z) - Bayesian Recurrent Units and the Forward-Backward Algorithm [91.39701446828144]
ベイズの定理を用いることで、ユニットワイド・リカレンスとフォワード・バックワードアルゴリズムに類似した後方再帰を導出する。
その結果得られたベイジアン再帰ユニットは、ディープラーニングフレームワーク内で再帰ニューラルネットワークとして統合することができる。
音声認識の実験は、最先端の繰り返しアーキテクチャの最後に派生したユニットを追加することで、訓練可能なパラメータの点で非常に低コストで性能を向上させることを示唆している。
論文 参考訳(メタデータ) (2022-07-21T14:00:52Z) - Generative or Contrastive? Phrase Reconstruction for Better Sentence
Representation Learning [86.01683892956144]
句再構成に基づく新たな自己教師型学習目標を提案する。
我々の生成学習は、十分強力な文表現をもたらし、コントラスト学習と同等の文文類似性タスクで性能を達成することができる。
論文 参考訳(メタデータ) (2022-04-20T10:00:46Z) - A Latent-Variable Model for Intrinsic Probing [93.62808331764072]
固有プローブ構築のための新しい潜在変数定式化を提案する。
我々は、事前訓練された表現が言語間交互に絡み合ったモルフォシンタクスの概念を発達させる経験的証拠を見出した。
論文 参考訳(メタデータ) (2022-01-20T15:01:12Z) - Towards a Theoretical Understanding of the Robustness of Variational
Autoencoders [82.68133908421792]
敵攻撃や他の入力摂動に対する変分オートエンコーダ(VAE)の堅牢性を理解するために,我々は進出している。
確率モデルにおけるロバスト性のための新しい基準である$r$-robustnessを開発する。
遠心法を用いて訓練したVAEが、ロバストネスの指標でよく評価されていることを示す。
論文 参考訳(メタデータ) (2020-07-14T21:22:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。