論文の概要: Not quite there yet: Combining analogical patterns and encoder-decoder
networks for cognitively plausible inflection
- arxiv url: http://arxiv.org/abs/2108.03968v1
- Date: Mon, 9 Aug 2021 12:03:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-10 15:37:57.751792
- Title: Not quite there yet: Combining analogical patterns and encoder-decoder
networks for cognitively plausible inflection
- Title(参考訳): 相似パターンとエンコーダ・デコーダ・ネットワークの組み合わせによる認知的可算な帰納法
- Authors: Basilio Calderone (CLLE), Nabil Hathout (CLLE), Olivier Bonami (LLF
UMR7110)
- Abstract要約: 本報告では,SIGMORPHON 2021共有タスク0。
我々のゴールは、事前にコンパイルされたアナログパターンとエンコーダ・デコーダアーキテクチャを組み合わせることの有用性を探ることである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The paper presents four models submitted to Part 2 of the SIGMORPHON 2021
Shared Task 0, which aims at replicating human judgements on the inflection of
nonce lexemes. Our goal is to explore the usefulness of combining pre-compiled
analogical patterns with an encoder-decoder architecture. Two models are
designed using such patterns either in the input or the output of the network.
Two extra models controlled for the role of raw similarity of nonce inflected
forms to existing inflected forms in the same paradigm cell, and the role of
the type frequency of analogical patterns. Our strategy is entirely endogenous
in the sense that the models appealing solely to the data provided by the
SIGMORPHON organisers, without using external resources. Our model 2 ranks
second among all submitted systems, suggesting that the inclusion of analogical
patterns in the network architecture is useful in mimicking speakers'
predictions.
- Abstract(参考訳): 本論文はSIGMORPHON 2021 Shared Task 0 の第2部に提出された4つのモデルについて述べる。
我々のゴールは、事前にコンパイルされたアナログパターンとエンコーダ・デコーダアーキテクチャを組み合わせることの有用性を探ることである。
2つのモデルが、ネットワークの入力または出力のいずれかのパターンを用いて設計されている。
2つの余分なモデルにより、同じパラダイムセルに存在する既存の屈折形態とナンス反転形態の生の類似性の役割と、類似パターンの型頻度の役割が制御された。
我々の戦略は、外部リソースを使わずに、SIGMORPHONオーガナイザが提供するデータのみに訴えるモデルという意味で、完全に内在的である。
モデル2は提案システムの中で第2位であり,ネットワークアーキテクチャにおける類似パターンの導入は話者の予測を模倣するのに有用であることが示唆された。
関連論文リスト
- Learning Robust Representations for Communications over Interference-limited Channels [0.6990493129893111]
本研究では、干渉制限環境下でのブロック伝送と検出のためのエンコーダとデコーダの設計のために、TwinNetとSiameseNetという2つの高効率な手法を紹介した。
論文 参考訳(メタデータ) (2024-10-13T09:09:21Z) - Towards Universality: Studying Mechanistic Similarity Across Language Model Architectures [49.24097977047392]
本稿では,言語モデリングの主流となる2つのアーキテクチャ,すなわち Transformers と Mambas について検討する。
我々はこれらのモデルから解釈可能な特徴を分離するためにスパースオートエンコーダ(SAE)を用いることを提案し、これらの2つのモデルでほとんどの特徴が似ていることを示す。
論文 参考訳(メタデータ) (2024-10-09T08:28:53Z) - TF4CTR: Twin Focus Framework for CTR Prediction via Adaptive Sample Differentiation [14.047096669510369]
本稿では,Twin Focus (TF) Loss, Sample Selection Embedding Module (SSEM), Dynamic Fusion Module (DFM) を統合した新しいCTR予測フレームワークを提案する。
5つの実世界のデータセットの実験は、フレームワークの有効性と互換性を確認している。
論文 参考訳(メタデータ) (2024-05-06T05:22:40Z) - Meaning Representations from Trajectories in Autoregressive Models [106.63181745054571]
入力テキストを拡張可能なすべてのトラジェクトリの分布を考慮し,自己回帰言語モデルから意味表現を抽出する。
この戦略はプロンプトフリーであり、微調整は必要とせず、事前訓練された自己回帰モデルにも適用できる。
我々は,大規模なモデルから得られた表現が人間のアノテーションとよく一致し,意味的類似性タスクにおける他のゼロショットおよびプロンプトフリーメソッドよりも優れており,標準埋め込みが扱えないより複雑なエンタテインメントや包含タスクの解決に使用できることを実証的に示す。
論文 参考訳(メタデータ) (2023-10-23T04:35:58Z) - STMT: A Spatial-Temporal Mesh Transformer for MoCap-Based Action Recognition [50.064502884594376]
本研究では、モーションキャプチャー(MoCap)シーケンスを用いた人間の行動認識の問題点について検討する。
メッシュシーケンスを直接モデル化する新しい時空間メッシュ変換器(STMT)を提案する。
提案手法は,スケルトンベースモデルやポイントクラウドベースモデルと比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-03-31T16:19:27Z) - ContraFeat: Contrasting Deep Features for Semantic Discovery [102.4163768995288]
StyleGANは、アンタングル化セマンティックコントロールの強い可能性を示している。
StyleGANの既存の意味発見手法は、修正された潜在層を手作業で選択することで、良好な操作結果が得られる。
本稿では,このプロセスを自動化し,最先端のセマンティック発見性能を実現するモデルを提案する。
論文 参考訳(メタデータ) (2022-12-14T15:22:13Z) - Assemble Foundation Models for Automatic Code Summarization [9.53949558569201]
ニューラルネットワークに基づく自動コード要約のためのフレキシブルでロバストなアプローチを提案する。
CodeBERT や GPT-2 のような利用可能な基盤モデルを AdaMo という単一のモデルに組み立てる。
本稿では,知識伝達の観点から,連続事前学習と中間微調整という2つの適応型スキームを導入する。
論文 参考訳(メタデータ) (2022-01-13T21:38:33Z) - R2D2: Relational Text Decoding with Transformers [18.137828323277347]
グラフ構造とそれらのノードとエッジに関連付けられた自然言語テキストとの相互作用をモデル化する新しいフレームワークを提案する。
提案手法は,グラフィカル構造とテキストのシーケンシャルな性質の両方を利用する。
提案モデルには幅広い応用があるが,データ・テキスト生成タスクにおけるその機能を示す。
論文 参考訳(メタデータ) (2021-05-10T19:59:11Z) - Understanding Neural Abstractive Summarization Models via Uncertainty [54.37665950633147]
seq2seq抽象要約モデルは、自由形式の方法でテキストを生成する。
モデルのトークンレベルの予測のエントロピー、すなわち不確実性について検討する。
要約とテキスト生成モデルをより広範囲に解析する上で,不確実性は有用であることを示す。
論文 参考訳(メタデータ) (2020-10-15T16:57:27Z) - Learning Noise-Aware Encoder-Decoder from Noisy Labels by Alternating
Back-Propagation for Saliency Detection [54.98042023365694]
本稿では,ノイズを考慮したエンコーダ・デコーダ・フレームワークを提案する。
提案モデルはニューラルネットワークによってパラメータ化された2つのサブモデルから構成される。
論文 参考訳(メタデータ) (2020-07-23T18:47:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。