論文の概要: Semantic Operator Prediction and Applications
- arxiv url: http://arxiv.org/abs/2301.00399v1
- Date: Sun, 1 Jan 2023 13:20:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 14:54:25.023705
- Title: Semantic Operator Prediction and Applications
- Title(参考訳): 意味演算子予測とその応用
- Authors: Farshad Noravesh
- Abstract要約: 意味解析におけるQDMRフォーマリズムは、シーケンスモデルとシーケンスモデルを用いて実装されるが、文の単語の表現として音声(POS)の一部のみを使用して、トレーニングを可能な限りシンプルかつ高速に行う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the present paper, semantic parsing challenges are briefly introduced and
QDMR formalism in semantic parsing is implemented using sequence to sequence
model with attention but uses only part of speech(POS) as a representation of
words of a sentence to make the training as simple and as fast as possible and
also avoiding curse of dimensionality as well as overfitting. It is shown how
semantic operator prediction could be augmented with other models like the
CopyNet model or the recursive neural net model.
- Abstract(参考訳): 本稿では,意味解析の課題を簡潔に紹介し,意味解析におけるQDMRの形式化を注意を伴うシーケンスモデルを用いて実施するが,文の単語の表現として音声(POS)の一部しか使用せず,訓練を可能な限りシンプルかつ迅速にし,次元の呪いや過剰適合を回避する。
意味演算子予測が、コピーネットモデルや再帰ニューラルネットモデルといった他のモデルでどのように拡張されるかを示す。
関連論文リスト
- Semformer: Transformer Language Models with Semantic Planning [18.750863564495006]
次世代の予測は、現在のニューラルネットワークモデルの主要なコンポーネントである。
本稿では,応答のセマンティックプランニングを明示的にモデル化したトランスフォーマー言語モデルのトレーニング手法であるSemformerを紹介する。
論文 参考訳(メタデータ) (2024-09-17T12:54:34Z) - Improving Speech Recognition Error Prediction for Modern and Off-the-shelf Speech Recognizers [15.74988399856102]
我々は、音声認識誤りを2つの方法で予測するために、事前の音声混乱に基づくモデルを拡張した。
後部音響モデルの振舞いをより良くシミュレートするサンプリングベースパラダイムを提案する。
まず,Switchboard ASRシステムのエラーを未知のデータ上で予測し,次に,同じ予測器を用いて,無関係なクラウドベースのASRシステムの挙動を推定する。
論文 参考訳(メタデータ) (2024-08-21T00:48:03Z) - Non-autoregressive Sequence-to-Sequence Vision-Language Models [63.77614880533488]
本稿では,デコーダ内の複数の推論経路をマージする並列デコードシーケンス・ツー・シーケンス・ビジョン言語モデルを提案する。
このモデルは最先端の自己回帰モデルと同等のパフォーマンスを実現するが、推論時間では高速である。
論文 参考訳(メタデータ) (2024-03-04T17:34:59Z) - Scalable Learning of Latent Language Structure With Logical Offline
Cycle Consistency [71.42261918225773]
概念的には、LOCCOは、トレーニング対象のセマンティクスを使用してラベルなしテキストのアノテーションを生成する、自己学習の一形態と見なすことができる。
追加ボーナスとして、LOCCOによって生成されたアノテーションは、神経テキスト生成モデルをトレーニングするために自明に再利用することができる。
論文 参考訳(メタデータ) (2023-05-31T16:47:20Z) - Pathologies of Pre-trained Language Models in Few-shot Fine-tuning [50.3686606679048]
実例が少ない事前学習言語モデルはラベル間に強い予測バイアスを示すことを示す。
わずかな微調整で予測バイアスを軽減できるが,本分析では,非タスク関連の特徴を捉えることで,モデルの性能向上を図っている。
これらの観察は、より少ない例でモデルのパフォーマンスを追求することは、病理学的予測行動を引き起こす可能性があることを警告する。
論文 参考訳(メタデータ) (2022-04-17T15:55:18Z) - Speech Summarization using Restricted Self-Attention [79.89680891246827]
音声要約に最適化された単一モデルを提案する。
提案モデルでは,ハウ-2コーパスの音声を直接要約する手法が提案されている。
論文 参考訳(メタデータ) (2021-10-12T18:21:23Z) - Hierarchical Conditional End-to-End ASR with CTC and Multi-Granular
Subword Units [19.668440671541546]
エンドツーエンドの自動音声認識では、単語レベルのシーケンスを認識するのに適した表現を暗黙的に学習することが期待される。
接続型時間分類(CTC)に基づく階層型条件付きモデルを提案する。
LibriSpeech-100h, 960h, TEDLium2の実験結果から, 提案モデルが標準CTCモデルよりも改良されていることが示された。
論文 参考訳(メタデータ) (2021-10-08T13:15:58Z) - Structured Reordering for Modeling Latent Alignments in Sequence
Transduction [86.94309120789396]
本稿では,分離可能な置換の辺りを正確に推定する効率的な動的プログラミングアルゴリズムを提案する。
結果のSeq2seqモデルは、合成問題やNLPタスクの標準モデルよりも体系的な一般化が優れている。
論文 参考訳(メタデータ) (2021-06-06T21:53:54Z) - Explaining and Improving Model Behavior with k Nearest Neighbor
Representations [107.24850861390196]
モデルの予測に責任のあるトレーニング例を特定するために, k 近傍表現を提案する。
我々は,kNN表現が学習した素因関係を明らかにするのに有効であることを示す。
以上の結果から,kNN手法により,直交モデルが逆入力に対してより堅牢であることが示唆された。
論文 参考訳(メタデータ) (2020-10-18T16:55:25Z) - Autoencoding Pixies: Amortised Variational Inference with Graph
Convolutions for Functional Distributional Semantics [12.640283469603355]
Pixie Autoencoderはグラフ畳み込みニューラルネットワークを用いて関数分散セマンティックスの生成モデルを拡張して、償却変分推論を実行する。
論文 参考訳(メタデータ) (2020-05-06T17:46:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。