論文の概要: From SPMRL to NMRL: What Did We Learn (and Unlearn) in a Decade of
Parsing Morphologically-Rich Languages (MRLs)?
- arxiv url: http://arxiv.org/abs/2005.01330v1
- Date: Mon, 4 May 2020 09:05:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 00:46:53.192102
- Title: From SPMRL to NMRL: What Did We Learn (and Unlearn) in a Decade of
Parsing Morphologically-Rich Languages (MRLs)?
- Title(参考訳): spmrlからnmrlへ:形態学的にリッチな言語(mrls)を10年間にわたって解析し、何を学んだか(そして未発見)?
- Authors: Reut Tsarfaty, Dan Bareket, Stav Klein, Amit Seker
- Abstract要約: モルフォロジー・ライヒ語のための統計パーシングが最初に設立されてからちょうど10年が経った。
私たちは、この10年でMRLを解析し、アーキテクチャ、モデリング、語彙上の課題に対して学んだソリューションと教訓を強調します。
MRL(Neural Models for NMRL)を設計するための戦略をスケッチし,ヘブライ語におけるマルチタグ処理の課題を調査することで,これらの戦略の予備的サポートを示す。
- 参考スコア(独自算出の注目度): 9.620007307842943
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It has been exactly a decade since the first establishment of SPMRL, a
research initiative unifying multiple research efforts to address the peculiar
challenges of Statistical Parsing for Morphologically-Rich Languages
(MRLs).Here we reflect on parsing MRLs in that decade, highlight the solutions
and lessons learned for the architectural, modeling and lexical challenges in
the pre-neural era, and argue that similar challenges re-emerge in neural
architectures for MRLs. We then aim to offer a climax, suggesting that
incorporating symbolic ideas proposed in SPMRL terms into nowadays neural
architectures has the potential to push NLP for MRLs to a new level. We sketch
strategies for designing Neural Models for MRLs (NMRL), and showcase
preliminary support for these strategies via investigating the task of
multi-tagging in Hebrew, a morphologically-rich, high-fusion, language
- Abstract(参考訳): spmrlの最初の設立からちょうど10年が経ち、形態的リッチ言語(mrls)の統計的解析の特異な課題に対処するために複数の研究活動を統合する研究イニシアチブである。
ここでは、この10年間のMRLのパースを振り返り、前神経時代のアーキテクチャ、モデリング、語彙上の課題に対するソリューションと教訓を強調し、同様の課題がMRLのニューラルアーキテクチャにおいて再燃していることを論じる。
そこで我々は,SPMRL用語で提案されるシンボリックアイデアを現代のニューラルアーキテクチャに取り入れることで,MRLのNLPを新たなレベルに押し上げる可能性を示唆するクライマックスの提供を目指す。
我々はMRL(Neural Models for NMRL)を設計するための戦略をスケッチし、形態学的にリッチでハイフュージョンな言語であるヘブライ語におけるマルチタグの課題を調査し、これらの戦略の予備的な支援を示す。
関連論文リスト
- Natural Language Reinforcement Learning [23.310602238815285]
Reinforcement Learning (RL) はマルコフ決定過程 (MDP) を用いて決定を数学的に定式化する
本稿では,従来のMDPを自然言語に基づく表現空間に拡張することで,自然言語強化学習(NLRL)の可能性を探る。
論文 参考訳(メタデータ) (2024-11-21T15:57:02Z) - From Linguistic Giants to Sensory Maestros: A Survey on Cross-Modal Reasoning with Large Language Models [56.9134620424985]
クロスモーダル推論(CMR)は、より高度な人工知能システムへの進化における重要な能力として、ますます認識されている。
CMRタスクに取り組むためにLLM(Large Language Models)をデプロイする最近のトレンドは、その有効性を高めるためのアプローチの新たな主流となっている。
本調査では,LLMを用いてCMRで適用された現在の方法論を,詳細な3階層分類に分類する。
論文 参考訳(メタデータ) (2024-09-19T02:51:54Z) - Large Language Models for Information Retrieval: A Survey [58.30439850203101]
情報検索は、項ベースの手法から高度なニューラルモデルとの統合へと進化してきた。
近年の研究では、大規模言語モデル(LLM)を活用してIRシステムの改善が試みられている。
LLMとIRシステムの合流点を探索し、クエリリライト、リトリバー、リランカー、リーダーといった重要な側面を含む。
論文 参考訳(メタデータ) (2023-08-14T12:47:22Z) - What deep reinforcement learning tells us about human motor learning and
vice-versa [24.442174952832108]
本稿では,近年の深部RL法が神経科学,エラーベース学習において支配的な運動学習の枠組みとどのように一致するかを示す。
我々は、モデルに基づく決定論的ポリシー勾配(MB-DPG)という新しいディープRLアルゴリズムを導入する。
MB-DPGは、観察された行動の結果に明示的に依存することで、エラーベースの学習からインスピレーションを得ている。
論文 参考訳(メタデータ) (2022-08-23T11:56:49Z) - Less is More: A Call to Focus on Simpler Models in Genetic Programming
for Interpretable Machine Learning [1.0323063834827415]
解釈可能性(interpretability)は、ハイテイクなアプリケーションにおける機械学習モデルの安全かつ責任ある使用に不可欠である。
GP for IMLの研究は、低複雑さモデルにおける探索に重点を置く必要があると我々は主張する。
論文 参考訳(メタデータ) (2022-04-05T08:28:07Z) - Mask-based Latent Reconstruction for Reinforcement Learning [58.43247393611453]
マスクをベースとした遅延再構成(MLR)は,空間的および時間的マスキング画素を用いた観測から潜在空間の完全な状態表現を予測するために提案される。
広汎な実験により,MLRは深部強化学習における試料効率を著しく向上させることが示された。
論文 参考訳(メタデータ) (2022-01-28T13:07:11Z) - RL-DARTS: Differentiable Architecture Search for Reinforcement Learning [62.95469460505922]
我々は、強化学習(RL)における微分可能なアーキテクチャ探索(DARTS)の最初の応用の1つであるRL-DARTSを紹介する。
画像エンコーダをDARTSスーパーネットに置き換えることにより、検索方法はサンプリング効率が高く、余分な計算資源が最小限必要であり、また、既存のコードに小さな変更を加える必要がなく、オフ・ポリティクスとオン・ポリティクスのRLアルゴリズムとも互換性がある。
スーパーネットはより優れたセルを徐々に学習し、手作業で設計したポリシーに対して高い競争力を持つ代替アーキテクチャへとつながり、RLポリシーの以前の設計選択も検証できることを示す。
論文 参考訳(メタデータ) (2021-06-04T03:08:43Z) - Variational Empowerment as Representation Learning for Goal-Based
Reinforcement Learning [114.07623388322048]
本稿では,標準目標条件付きRL (GCRL) を目的変動エンパワーメントによってカプセル化する方法について論じる。
我々の研究は、ゴールベースRLで表現学習技術を評価し、分析し、開発する新しい基礎を築いた。
論文 参考訳(メタデータ) (2021-06-02T18:12:26Z) - HTMRL: Biologically Plausible Reinforcement Learning with Hierarchical
Temporal Memory [1.138723572165938]
本稿では,HTMに基づく強化学習アルゴリズムHTMRLを提案する。
我々は,HTMRLが多くの状態や行動にスケールできることを経験的,統計的に示し,パターンの変化に適応するHTMの能力がRLにまで拡張できることを実証した。
HTMRLは新しいRLアプローチの最初のイテレーションであり、Meta-RLの有能なアルゴリズムに拡張される可能性がある。
論文 参考訳(メタデータ) (2020-09-18T15:05:17Z) - Syntax Role for Neural Semantic Role Labeling [77.5166510071142]
意味的役割ラベリング(SRL)は、文の意味的述語・代名詞構造を認識することを目的としている。
従来のモデルでは、構文情報はSRLのパフォーマンスに顕著な貢献をする可能性がある。
最近の神経SRL研究は、構文情報は神経意味的役割のラベル付けにおいてはるかに重要でないことを示している。
論文 参考訳(メタデータ) (2020-09-12T07:01:12Z) - On the Reliability and Generalizability of Brain-inspired Reinforcement
Learning Algorithms [10.09712608508383]
モデルベースとモデルフリー制御を組み合わせた計算モデルは,前頭前野のRLと呼ばれ,人間が学習した高レベル政策に関する情報を確実にエンコードする。
これは、脳が一般的な問題を解決する方法を模倣する計算モデルが実用的な解決策をもたらす可能性を正式にテストする最初の試みである。
論文 参考訳(メタデータ) (2020-07-09T06:32:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。