論文の概要: NUTS, NARS, and Speech
- arxiv url: http://arxiv.org/abs/2405.17874v1
- Date: Tue, 28 May 2024 06:51:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-29 20:07:07.502343
- Title: NUTS, NARS, and Speech
- Title(参考訳): NUTS、NARS、および音声
- Authors: D. van der Sluis,
- Abstract要約: NUTSは、ナイーブ次元還元、いくつかの前処理、そして非公理推論(NARS)からなる。
2つのトレーニング例だけで、NUTSは離散的な単語識別のためのWhisper Tinyモデルと同様に機能する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: To investigate whether "Intelligence is the capacity of an information-processing system to adapt to its environment while operating with insufficient knowledge and resources", we look at utilising the non axiomatic reasoning system (NARS) for speech recognition. This article presents NUTS: raNdom dimensionality redUction non axiomaTic reasoning few Shot learner for perception. NUTS consists of naive dimensionality reduction, some pre-processing, and then non axiomatic reasoning (NARS). With only 2 training examples NUTS performs similarly to the Whisper Tiny model for discrete word identification.
- Abstract(参考訳): 知識と資源の不足を伴いながら環境に適応する情報処理システムの能力について検討するため,音声認識に非公理推論システム(NARS)を活用することを検討する。
本稿では, NUTS: raNdom dimensionality redUction non axiomaTic reasoning few Shot learner for perceptionについて述べる。
NUTSは、ナイーブな次元減少、いくつかの前処理、そして非公理推論(NARS)から構成される。
2つのトレーニング例だけで、NUTSは離散的な単語識別のためのWhisper Tinyモデルと同様に機能する。
関連論文リスト
- Towards a fully declarative neuro-symbolic language [13.009339669097415]
我々は、完全に宣言的な神経述語のための一般的なフレームワークを提案し、実装する。
まず、宣言的拡張は任意のクエリに答えることができながら、学習と推論能力を保っていることを示す。
論文 参考訳(メタデータ) (2024-05-15T17:24:34Z) - A Theory of Unsupervised Speech Recognition [60.12287608968879]
教師なし音声認識(英語: Unsupervised speech Recognition, ASR-U)は、音声のみの音声とテキストのみのコーパスから自動音声認識システムを学習する問題である。
本稿では,ランダム行列理論とニューラル・タンジェント・カーネルの理論に基づいて,ASR-U系の特性を研究するための一般的な理論的枠組みを提案する。
論文 参考訳(メタデータ) (2023-06-09T08:12:27Z) - Continual Reasoning: Non-Monotonic Reasoning in Neurosymbolic AI using
Continual Learning [2.912595438026074]
ニューラルシンボリックシステムと連続学習の手法を組み合わせることで、Logic Networksはより高い精度を得ることができることを示す。
LTNには、知識とデータからの学習のカリキュラムをリコールで導入することにより、継続的な学習が加えられる。
結果は,非単調推論問題において有意な改善が認められた。
論文 参考訳(メタデータ) (2023-05-03T15:11:34Z) - NELLIE: A Neuro-Symbolic Inference Engine for Grounded, Compositional,
and Explainable Reasoning [59.16962123636579]
本稿では,Prologベースの推論エンジンを新たに提案する。
我々は手作りのルールを、ニューラルネットワークモデリング、ガイド付き生成、半密検索の組み合わせで置き換える。
我々の実装であるNELLIEは、完全に解釈可能なエンドツーエンドの基底QAを示す最初のシステムである。
論文 参考訳(メタデータ) (2022-09-16T00:54:44Z) - C-SENN: Contrastive Self-Explaining Neural Network [0.5939410304994348]
本研究では、コントラスト学習と概念学習を組み合わせることで、概念の可読性とタスクの精度を向上させる。
我々はこのモデルをContrastive Self-Explaining Neural Network (C-SENN)と呼ぶ。
論文 参考訳(メタデータ) (2022-06-20T05:23:02Z) - A Neural-Symbolic Approach to Natural Language Understanding [12.752124450670602]
我々はニューラルシンボリックプロセッサ(NSP)と呼ばれるNLUの新しいフレームワークを提案する。
NSPは、ニューラル処理に基づいてアナログ推論を行い、ニューラル処理とシンボリック処理の両方に基づいて論理推論を行う。
ケーススタディとして、質問応答(QA)と自然言語推論(NLI)という2つのNLUタスクの実験を行った。
論文 参考訳(メタデータ) (2022-03-20T14:12:44Z) - Preliminary study on using vector quantization latent spaces for TTS/VC
systems with consistent performance [55.10864476206503]
本稿では,潜在言語埋め込みをモデル化するための量子化ベクトルの利用について検討する。
トレーニングにおいて、潜伏空間上の異なるポリシーを強制することにより、潜伏言語埋め込みを得ることができる。
実験の結果,ベクトル量子化法で構築した音声クローニングシステムは,知覚的評価の点でわずかに劣化していることがわかった。
論文 参考訳(メタデータ) (2021-06-25T07:51:35Z) - Exploiting Cross-Lingual Knowledge in Unsupervised Acoustic Modeling for
Low-Resource Languages [14.297371692669545]
ゼロリソースシナリオにおける自動音声認識(ASR)のための教師なし音響モデリング(UAM)
第一の問題は、与えられた言語における基本的な(サブワードレベルの)音声ユニットの教師なし発見に関するものである。
第二の問題は教師なしサブワードモデリング(unsupervised subword modeling)と呼ばれる。
論文 参考訳(メタデータ) (2020-07-29T19:45:17Z) - Compositional Explanations of Neurons [52.71742655312625]
本稿では, 合成論理的概念を同定し, 深部表現におけるニューロンの説明手順について述べる。
本稿では,視覚と自然言語処理のモデルにおける解釈可能性に関するいくつかの疑問に答えるために,この手順を用いる。
論文 参考訳(メタデータ) (2020-06-24T20:37:05Z) - Logical Neural Networks [51.46602187496816]
ニューラルネットワーク(学習)と記号論理(知識と推論)の両方の重要な特性をシームレスに提供する新しいフレームワークを提案する。
すべてのニューロンは、重み付けされた実数値論理における公式の構成要素としての意味を持ち、非常に解釈不能な非絡み合い表現をもたらす。
推論は事前に定義されたターゲット変数ではなく、オムニであり、論理的推論に対応する。
論文 参考訳(メタデータ) (2020-06-23T16:55:45Z) - Leap-Of-Thought: Teaching Pre-Trained Models to Systematically Reason
Over Implicit Knowledge [96.92252296244233]
大規模な事前学習言語モデル(LM)は推論能力を得るが、制御は困難である。
本研究では,暗黙的,事前学習された知識と明示的な自然言語文を併用して,体系的推論を確実に行うことができることを示す。
我々の研究は、シンプルな自然言語文を追加することで、モデルを簡単に修正できるユーザと対話することで、常に改善されるオープンドメインシステムへの道を開く。
論文 参考訳(メタデータ) (2020-06-11T17:02:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。