論文の概要: Romanian Diacritics Restoration Using Recurrent Neural Networks
- arxiv url: http://arxiv.org/abs/2009.02743v1
- Date: Sun, 6 Sep 2020 14:20:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 08:05:12.442671
- Title: Romanian Diacritics Restoration Using Recurrent Neural Networks
- Title(参考訳): リカレントニューラルネットワークによるルーマニア語発音復元
- Authors: Stefan Ruseti, Teodor-Mihai Cotet and Mihai Dascalu
- Abstract要約: 対話的復元はルーマニア語のテキストを適切に処理するための必須ステップである。
ルーマニアの修復のために実験されたほとんどの手法はニューラルネットワークを使用しない。
ダイアクリティカルティクスを復元するために,異なるレベルの抽象化情報に到達可能な,繰り返しニューラルネットワークに基づく新しいニューラルアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 0.8901073744693315
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diacritics restoration is a mandatory step for adequately processing Romanian
texts, and not a trivial one, as you generally need context in order to
properly restore a character. Most previous methods which were experimented for
Romanian restoration of diacritics do not use neural networks. Among those that
do, there are no solutions specifically optimized for this particular language
(i.e., they were generally designed to work on many different languages).
Therefore we propose a novel neural architecture based on recurrent neural
networks that can attend information at different levels of abstractions in
order to restore diacritics.
- Abstract(参考訳): diacriticsの復元はルーマニア語のテキストを適切に処理するための必須のステップであり、文字を適切に復元するためにコンテキストを必要とするため、簡単なものではありません。
ルーマニアのダイアクリティカルマークの復元のために実験されたほとんどの従来の手法はニューラルネットワークを使用しない。
それらの中で、この特定の言語に特に最適化されたソリューションはない(つまり、多くの異なる言語で動作するように設計されている)。
そこで本研究では,異なる抽象レベルの情報に応答してダイアクリティカルスを復元できる,再帰型ニューラルネットワークに基づく新しいニューラルネットワークを提案する。
関連論文リスト
- On The Expressivity of Recurrent Neural Cascades [48.87943990557107]
リカレントニューラルカスケード(Recurrent Neural Cascades、RNC)は、リカレントニューラルネットワークであり、リカレントニューロン間で循環的依存を持たない。
RNCは、グループを実装可能なニューロンを導入することで、すべての正規言語を表現できることを示す。
論文 参考訳(メタデータ) (2023-12-14T15:47:26Z) - Automatic Restoration of Diacritics for Speech Data Sets [1.81336359426598]
パラレル音声を用いた音声データに適用することで,自動発音復元の性能向上の可能性を検討する。
我々は、比較的少量のアラビア語音声データに基づいて、事前学習したWhisper ASRモデルを用いて、音声発話に粗い発音書き起こしを生成する。
提案するフレームワークは,テキストのみのベースラインに比べて,ダイアクリティカルな復元性能を一貫して向上させる。
論文 参考訳(メタデータ) (2023-11-15T19:24:54Z) - Optimizing the Neural Network Training for OCR Error Correction of
Historical Hebrew Texts [0.934612743192798]
本稿では,ヘブライOCR後補正のための軽量ニューラルネットワークを,手作業で生成したデータよりもはるかに少ない精度でトレーニングする方法を提案する。
過去のOCR新聞の分析は、共通言語とコーパス固有のOCRエラーを学習するために行われた。
論文 参考訳(メタデータ) (2023-07-30T12:59:06Z) - Toward a Period-Specific Optimized Neural Network for OCR Error
Correction of Historical Hebrew Texts [0.934612743192798]
OCR技術は、特に数百年前にOCRedドキュメントが書かれたとき、エラーを起こしやすい。
ニューラルネットワークは、OCRポストコレクションなど、さまざまなテキスト処理タスクの解決に成功している。
ニューラルネットワークを過去のコーパスに使用する主な欠点は、十分な大規模なトレーニングデータセットがないことである。
論文 参考訳(メタデータ) (2023-07-30T12:40:31Z) - Dilated Convolutional Neural Networks for Lightweight Diacritics
Restoration [0.0]
ラテン・アルファベットを基盤とした英語が支配するインターネット言語環境において、ダイアクリティカルリストアはユビキタスな課題となっている。
キャラクタレベルで動作する小さなフットプリント1D拡張畳み込みベースのアプローチについて述べる。
我々のソリューションは、同様のサイズのモデルの性能を超越し、より大きなモデルと競合する。
論文 参考訳(メタデータ) (2022-01-18T06:10:47Z) - Towards Zero-shot Language Modeling [90.80124496312274]
人間の言語学習に誘導的に偏りを持つニューラルモデルを構築した。
類型的に多様な訓練言語のサンプルからこの分布を推測する。
我々は、保留言語に対する遠隔監視として、追加の言語固有の側情報を利用する。
論文 参考訳(メタデータ) (2021-08-06T23:49:18Z) - Over-and-Under Complete Convolutional RNN for MRI Reconstruction [57.95363471940937]
MR画像再構成のための最近のディープラーニングに基づく手法は、通常、汎用的なオートエンコーダアーキテクチャを利用する。
OUCR(Over-and-Under Complete Convolu?tional Recurrent Neural Network)を提案する。
提案手法は, トレーニング可能なパラメータの少ない圧縮されたセンシングと, 一般的なディープラーニングに基づく手法に対して, 大幅な改善を実現する。
論文 参考訳(メタデータ) (2021-06-16T15:56:34Z) - Local Critic Training for Model-Parallel Learning of Deep Neural
Networks [94.69202357137452]
そこで我々は,局所的批判訓練と呼ばれる新しいモデル並列学習手法を提案する。
提案手法は,畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)の両方において,階層群の更新プロセスの分離に成功したことを示す。
また,提案手法によりトレーニングされたネットワークを構造最適化に利用できることを示す。
論文 参考訳(メタデータ) (2021-02-03T09:30:45Z) - Neural Sparse Representation for Image Restoration [116.72107034624344]
スパース符号化に基づく画像復元モデルの堅牢性と効率に触発され,深部ネットワークにおけるニューロンの空間性について検討した。
本手法は,隠れたニューロンに対する空間的制約を構造的に強制する。
実験により、複数の画像復元タスクのためのディープニューラルネットワークではスパース表現が不可欠であることが示されている。
論文 参考訳(メタデータ) (2020-06-08T05:15:17Z) - Compressive sensing with un-trained neural networks: Gradient descent
finds the smoothest approximation [60.80172153614544]
訓練されていない畳み込みニューラルネットワークは、画像の回復と復元に非常に成功したツールとして登場した。
トレーニングされていない畳み込みニューラルネットワークは、ほぼ最小限のランダムな測定値から、十分に構造化された信号や画像を概ね再構成可能であることを示す。
論文 参考訳(メタデータ) (2020-05-07T15:57:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。