論文の概要: Kannudi -- A Reference Editor for Kannada
- arxiv url: http://arxiv.org/abs/2301.00836v1
- Date: Sat, 24 Dec 2022 01:40:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-09 04:13:18.087213
- Title: Kannudi -- A Reference Editor for Kannada
- Title(参考訳): Kannudi -- Kannadaのリファレンスエディタ
- Authors: Vishweshwar V. Dixit
- Abstract要約: Kannudiは、OKOK!とOKOK!の原則とドメイン知識に基づいた、Kannadaのリファレンスエディタである。
これは、Ottu Haku Ottu Kodu!というカンナダの入力方法を紹介している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Kannudi is a reference editor for Kannada based on OPOK! and OHOK!
principles, and domain knowledge. It introduces a method of input for Kannada,
called OHOK!, that is, Ottu Haku Ottu Kodu! (apply pressure and give ottu).
This is especially suited for pressure sensitive input devices, though the
current online implementation uses the regular mechanical keyboard. OHOK! has
three possible modes, namely, sva-ottu (self-conjunct), kandante (as you see),
and andante (as you say). It may be noted that kandante mode does not follow
the phonetic order. However, this mode may work well for those who are inclined
to visualize as they type rather than vocalizing the sounds.
Kannudi also demonstrates how domain knowledge can be effectively used to
potentially increase speed, accuracy, and user friendliness. For example,
selection of a default vowel, automatic shunyification, and arkification. Also
implemented are four types Deletes that are necessary for phono-syllabic
languages like Kannada.
- Abstract(参考訳): Kannudiは、OKOK!とOKOK!の原則とドメイン知識に基づいた、Kannadaのリファレンスエディタである。
これは、Ottu Haku Ottu Kodu!というカンナダの入力方法を紹介している。
(圧力をかけ、オットーを与える)。
これは特に圧力に敏感な入力デバイスに適しているが、現在のオンライン実装では通常の機械式キーボードを使用している。
は、sva-ottu(自己接続)、kandante(ご覧のように)、andante(おっしゃるとおり)の3つのモードがある。
カンダンテモードは音順に従わないことに注意する必要がある。
しかし、このモードは、音を鳴らすのではなく、タイプするときに可視化する傾向にある人には効果がある。
kannudi氏はまた、ドメイン知識を効果的に利用して、スピード、正確性、ユーザーフレンドリ性を高める方法も示している。
例えば、デフォルトの母音の選択、自動シャニー化、アーク化などです。
また、kannadaのようなフォノ音節言語に必要な4種類の削除も実装されている。
関連論文リスト
- A Language Modeling Approach to Diacritic-Free Hebrew TTS [21.51896995655732]
我々はヘブライ語におけるテキスト音声(TTS)の課題に取り組む。
伝統的なヘブライ語には、個人が与えられた言葉を発音する方法を規定するダイアクリティカル語が含まれている。
現代ヘブライ語におけるダイアクリティカルな発音の欠如は、読者が正しい発音を結論付けることを期待する結果となった。
論文 参考訳(メタデータ) (2024-07-16T22:43:49Z) - Towards General-Purpose Text-Instruction-Guided Voice Conversion [84.78206348045428]
本稿では,「深い声調でゆっくり発声する」や「陽気な少年声で話す」といったテキスト指示によって導かれる,新しい音声変換モデルを提案する。
提案したVCモデルは、離散コード列を処理するニューラルネットワークモデルであり、変換された音声のコード列を生成する。
論文 参考訳(メタデータ) (2023-09-25T17:52:09Z) - Looking and Listening: Audio Guided Text Recognition [62.98768236858089]
野生におけるテキスト認識は、コンピュータビジョンにおける長年の問題である。
近年の研究では、視覚と言語処理がシーンテキスト認識に有効であることが示唆されている。
しかし、既存のアプローチでは、追加、削除、置換といった編集エラーの解決が依然として大きな課題である。
本稿では,メルスペクトル列予測のためのシンプルで効果的な確率的オーディオデコーダであるAudioOCRを提案する。
論文 参考訳(メタデータ) (2023-06-06T08:08:18Z) - Do Orcas Have Semantic Language? Machine Learning to Predict Orca
Behaviors Using Partially Labeled Vocalization Data [50.02992288349178]
機械学習が発声から振舞いを予測できるかどうかを検討する。
私たちはMcMurdo Sound orcasの最近の録音で作業しています。
最近の機械学習技術と慎重に組み合わせることで、96.4%の分類精度が得られる。
論文 参考訳(メタデータ) (2023-01-28T06:04:22Z) - DualVoice: Speech Interaction that Discriminates between Normal and
Whispered Voice Input [16.82591185507251]
発声コマンドと音声入力に必要なテキストを区別する簡単な方法はない。
記号やコマンドの入力も、それらがテキスト文字として誤解される可能性があるため、難しい。
本研究では,DualVoiceと呼ばれる音声対話手法を提案する。
論文 参考訳(メタデータ) (2022-08-22T13:01:28Z) - Dict-TTS: Learning to Pronounce with Prior Dictionary Knowledge for
Text-to-Speech [88.22544315633687]
ポリホンの曖昧さは, 音声合成システムにおいて, 自然なテキストシーケンスから正確な発音知識を抽出することを目的としている。
オンラインウェブサイト辞書を用いた意味認識型テキスト音声合成モデルであるDict-TTSを提案する。
3つの言語による実験結果から,我々のモデルは発音精度においていくつかの強いベースラインモデルより優れていることが示された。
論文 参考訳(メタデータ) (2022-06-05T10:50:34Z) - DeepFry: Identifying Vocal Fry Using Deep Neural Networks [16.489251286870704]
声質フライ(Vocal fry)は、不規則な声門の開口と低ピッチを特徴とする声質を指す。
不規則な周期性のため、難解な音声は自動音声認識システムに挑戦する。
本稿では,流速音声における難解な音声を検出するためのディープラーニングモデルを提案する。
論文 参考訳(メタデータ) (2022-03-31T13:23:24Z) - indic-punct: An automatic punctuation restoration and inverse text
normalization framework for Indic languages [0.0]
IndicBERTモデルを用いたテキストの自動句読取手法を提案する。
逆テキスト正規化は手書き有限状態トランスデューサ(WFST)文法によって行われる。
論文 参考訳(メタデータ) (2022-03-31T06:18:43Z) - The MIT Voice Name System [53.473846742702854]
我々は,音声対話を電話番号などの他のシステムと同様のユニバーサルリーチに標準化することを目指している。
音声をIoTオブジェクトと通信するための出発点として重視しています。
プライバシーとセキュリティは、音声からテキストへの誤りと音声サンプルに含まれる個人情報の量によって考慮される重要な要素である。
論文 参考訳(メタデータ) (2022-03-28T19:09:26Z) - Read Like Humans: Autonomous, Bidirectional and Iterative Language
Modeling for Scene Text Recognition [80.446770909975]
言語知識はシーンのテキスト認識に非常に有益である。
エンドツーエンドのディープネットワークで言語規則を効果的にモデル化する方法はまだ研究の課題です。
シーンテキスト認識のための自律的双方向反復型ABINetを提案する。
論文 参考訳(メタデータ) (2021-03-11T06:47:45Z) - Naturalization of Text by the Insertion of Pauses and Filler Words [0.9330780753057821]
そこで本研究では,自然音声に基づくテキストの自然化手法を提案する。
最初のテキスト変換法では、トレーニングデータ中のビッグラムの周波数を用いて入力文に適切な挿入を行う。
第2の方法は、リカレントニューラルネットワークを使用して、挿入される次の単語を予測する。
論文 参考訳(メタデータ) (2020-11-07T06:56:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。