論文の概要: Unsupervised Protoform Reconstruction through Parsimonious Rule-guided Heuristics and Evolutionary Search
- arxiv url: http://arxiv.org/abs/2506.10614v1
- Date: Thu, 12 Jun 2025 11:58:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 15:37:22.712368
- Title: Unsupervised Protoform Reconstruction through Parsimonious Rule-guided Heuristics and Evolutionary Search
- Title(参考訳): 疑似ルール誘導ヒューリスティックと進化探索による教師なしプロトフォーム再構成
- Authors: Promise Dodzi Kpoglu,
- Abstract要約: 我々のモデルは、コグネート集合からプロトフォームを推測するために、データ駆動推論とルールベースの推論を統合する。
我々は,5つのロマンス語からのコニャートのデータセットを用いて,ラテン文字の復元作業について評価した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose an unsupervised method for the reconstruction of protoforms i.e., ancestral word forms from which modern language forms are derived. While prior work has primarily relied on probabilistic models of phonological edits to infer protoforms from cognate sets, such approaches are limited by their predominantly data-driven nature. In contrast, our model integrates data-driven inference with rule-based heuristics within an evolutionary optimization framework. This hybrid approach leverages on both statistical patterns and linguistically motivated constraints to guide the reconstruction process. We evaluate our method on the task of reconstructing Latin protoforms using a dataset of cognates from five Romance languages. Experimental results demonstrate substantial improvements over established baselines across both character-level accuracy and phonological plausibility metrics.
- Abstract(参考訳): 本稿では,現代語形が派生した祖語形,すなわち,原形を復元するための教師なしの手法を提案する。
先行研究は、主にコグネート集合からプロトフォームを推測するために音韻的編集の確率論的モデルに依存してきたが、そのようなアプローチは、主にデータ駆動の性質によって制限されている。
対照的に、我々のモデルは、進化的最適化フレームワークの中で、データ駆動推論とルールベースのヒューリスティックを統合する。
このハイブリッドアプローチは、統計的パターンと言語的に動機付けられた制約の両方を活用して、再構築プロセスを導く。
我々は,5つのロマンス語からのコニャートのデータセットを用いて,ラテン文字の復元作業について評価した。
実験結果は,文字レベルの精度と音韻学的妥当性の測定値の両方において,確立されたベースラインよりも大幅に改善された。
関連論文リスト
- A Computational Cognitive Model for Processing Repetitions of Hierarchical Relations [1.6385815610837167]
我々は、シーケンシャルデータ内の階層的関係の反復から生じる構造的反復、パターンに焦点を当てる。
このような構造的反復を人間が検出し、理解する方法の候補計算モデルを開発する。
論文 参考訳(メタデータ) (2025-04-14T10:08:28Z) - Improved Neural Protoform Reconstruction via Reflex Prediction [11.105362395278142]
我々は、プロトフォームはコグネート集合(関連する反射の集合)から推論可能であるだけでなく、プロトフォームからも推論可能であるべきだと主張する。
本稿では,リフレクション予測モデルを用いて,再構成モデルから候補となるプロトフォームをリランクするシステムを提案する。
論文 参考訳(メタデータ) (2024-03-27T17:13:38Z) - Representing and Computing Uncertainty in Phonological Reconstruction [5.284425534494986]
歴史的言語学では本質的にファジィな再現性にもかかわらず、多くの学者は原型の提案において不確かさを表現していない。
本稿では,言語再建における不確実性の表現を可能にする新しい枠組みを提案するとともに,言語データからファジィ再構成を計算するためのワークフローも提供する。
論文 参考訳(メタデータ) (2023-10-19T13:27:42Z) - Neural Unsupervised Reconstruction of Protolanguage Word Forms [34.66200889614538]
古語形態の教師なし再構成に対する最先端のニューラルアプローチを提案する。
我々はこの研究を、より複雑な音韻学的および形態学的変化を捉えることができるニューラルモデルで拡張する。
論文 参考訳(メタデータ) (2022-11-16T05:38:51Z) - Model Criticism for Long-Form Text Generation [113.13900836015122]
我々は,テキストの高レベル構造を評価するために,潜在空間におけるモデル批判という統計ツールを適用した。
我々は,コヒーレンス,コア,トピックスという,ハイレベルな談話の3つの代表的な側面について実験を行った。
トランスフォーマーベースの言語モデルでは、トピック構造をキャプチャできるが、構造コヒーレンスやモデリングコアスを維持するのが難しくなる。
論文 参考訳(メタデータ) (2022-10-16T04:35:58Z) - Learning Disentangled Representations for Natural Language Definitions [0.0]
テキストデータの連続的な構文的・意味的規則性は、構造的バイアスと生成的要因の両方をモデルに提供するのに有効である、と我々は主張する。
本研究では,文型,定義文の表現的・意味的に密接なカテゴリに存在する意味的構造を利用して,不整合表現を学習するための変分オートエンコーダを訓練する。
論文 参考訳(メタデータ) (2022-09-22T14:31:55Z) - A Latent-Variable Model for Intrinsic Probing [93.62808331764072]
固有プローブ構築のための新しい潜在変数定式化を提案する。
我々は、事前訓練された表現が言語間交互に絡み合ったモルフォシンタクスの概念を発達させる経験的証拠を見出した。
論文 参考訳(メタデータ) (2022-01-20T15:01:12Z) - SDA: Improving Text Generation with Self Data Augmentation [88.24594090105899]
自動データ拡張のための自己模倣学習フェーズを組み込むことにより,標準最大確率推定(MLE)パラダイムを改善することを提案する。
既存の文レベルの拡張戦略とは異なり,本手法はより汎用的で,任意のMLEベースの訓練手順に容易に適応できる。
論文 参考訳(メタデータ) (2021-01-02T01:15:57Z) - SLM: Learning a Discourse Language Representation with Sentence
Unshuffling [53.42814722621715]
談話言語表現を学習するための新しい事前学習目的である文レベル言語モデリングを導入する。
本モデルでは,この特徴により,従来のBERTの性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-10-30T13:33:41Z) - Unsupervised Paraphrasing with Pretrained Language Models [85.03373221588707]
教師なし環境で,事前学習した言語モデルを用いて高品質なパラフレーズを生成する訓練パイプラインを提案する。
提案手法は,タスク適応,自己スーパービジョン,動的ブロッキング(Dynamic Blocking)という新しい復号アルゴリズムから構成される。
提案手法は,Quora Question PairとParaNMTの両方のデータセット上で,最先端の性能を達成できることを示す。
論文 参考訳(メタデータ) (2020-10-24T11:55:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。