論文の概要: ChatGPT is a Potential Zero-Shot Dependency Parser
- arxiv url: http://arxiv.org/abs/2310.16654v1
- Date: Wed, 25 Oct 2023 14:08:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-26 14:20:42.938871
- Title: ChatGPT is a Potential Zero-Shot Dependency Parser
- Title(参考訳): ChatGPTはゼロショット依存パーサである
- Authors: Boda Lin, Xinyi Zhou, Binghao Tang, Xiaocheng Gong, Si Li
- Abstract要約: 事前訓練された言語モデルが、ゼロショットシナリオに付加的な構造を導入することなく、自発的に依存性解析の能力を発揮できるかどうかについては、未検討のままである。
本稿では,ChatGPTなどの大規模言語モデルの依存性解析能力について検討し,言語解析を行う。
- 参考スコア(独自算出の注目度): 5.726114645714751
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pre-trained language models have been widely used in dependency parsing task
and have achieved significant improvements in parser performance. However, it
remains an understudied question whether pre-trained language models can
spontaneously exhibit the ability of dependency parsing without introducing
additional parser structure in the zero-shot scenario. In this paper, we
propose to explore the dependency parsing ability of large language models such
as ChatGPT and conduct linguistic analysis. The experimental results
demonstrate that ChatGPT is a potential zero-shot dependency parser, and the
linguistic analysis also shows some unique preferences in parsing outputs.
- Abstract(参考訳): 事前訓練された言語モデルは依存性解析タスクで広く使われており、パーサのパフォーマンスが大幅に改善されている。
しかし、事前学習された言語モデルがゼロショットシナリオで追加のパーサ構造を導入することなく、依存性解析の能力を自発的に発揮できるかどうかについては、まだ未熟な疑問である。
本稿では,ChatGPTなどの大規模言語モデルの依存性解析能力について検討し,言語解析を行う。
実験の結果,chatgptはゼロショット依存パーサの可能性を示し,言語解析では出力解析において独自の好みを示す。
関連論文リスト
- Investigating Language-Specific Calibration For Pruning Multilingual Large Language Models [11.421452042888523]
多様な言語,タスク,モデル,および SotA プルーニング技術を用いて,多言語モデルをプルーニングするためのキャリブレーション言語を比較した。
例えば、ターゲット言語を校正することで、効率的に言語モデリング能力を維持することができるが、必ずしも下流タスクに利益をもたらすとは限らない。
論文 参考訳(メタデータ) (2024-08-26T16:29:13Z) - Comparative Analysis of CHATGPT and the evolution of language models [0.0]
本稿では,機械翻訳,機械要約,質問応答,言語生成など,NLPにおける一般的な考え方を紹介する。
大規模言語モデルの安全な大規模導入例として,ChatGPTの議論と結果を検証するための戦略をまとめて提示する。
論文 参考訳(メタデータ) (2023-03-28T03:11:28Z) - A Simple and Strong Baseline for End-to-End Neural RST-style Discourse
Parsing [44.72809363746258]
本稿では,既存の単純な構文解析手法であるトップダウンとボトムアップと,トランスフォーマーに基づく事前学習言語モデルを統合することで,強力なベースラインを探求する。
2つのベンチマークデータセットから得られた実験結果は、解析性能が解析戦略よりも事前訓練された言語モデルに依存していることを示している。
論文 参考訳(メタデータ) (2022-10-15T18:38:08Z) - On The Ingredients of an Effective Zero-shot Semantic Parser [95.01623036661468]
我々は、標準発話とプログラムの訓練例を文法から言い換えて、ゼロショット学習を分析する。
改良された文法,より強力なパラフレーズ,効率的な学習手法を用いて,これらのギャップを埋めることを提案する。
我々のモデルはラベル付きデータゼロの2つの意味解析ベンチマーク(Scholar, Geo)で高い性能を達成する。
論文 参考訳(メタデータ) (2021-10-15T21:41:16Z) - Language Models are Few-shot Multilingual Learners [66.11011385895195]
我々は、非英語言語における多言語分類を行う際に、GPTモデルとT5モデルの多言語的スキルを評価する。
文脈としての英語の例を見ると、事前学習された言語モデルは、英語のテストサンプルだけでなく、英語以外のサンプルも予測できることが示されている。
論文 参考訳(メタデータ) (2021-09-16T03:08:22Z) - Constrained Language Models Yield Few-Shot Semantic Parsers [73.50960967598654]
我々は,事前学習された大規模言語モデルの利用を,少ない意味論として検討する。
意味構文解析の目標は、自然言語入力によって構造化された意味表現を生成することである。
言語モデルを用いて、入力を英語に似た制御されたサブ言語にパラフレーズし、対象の意味表現に自動的にマッピングする。
論文 参考訳(メタデータ) (2021-04-18T08:13:06Z) - Infusing Finetuning with Semantic Dependencies [62.37697048781823]
シンタックスとは異なり、セマンティクスは今日の事前訓練モデルによって表面化されないことを示す。
次に、畳み込みグラフエンコーダを使用して、タスク固有の微調整にセマンティック解析を明示的に組み込む。
論文 参考訳(メタデータ) (2020-12-10T01:27:24Z) - Exploring Software Naturalness through Neural Language Models [56.1315223210742]
ソフトウェア自然性仮説(Software Naturalness hypothesis)は、自然言語処理で使用されるのと同じ手法でプログラミング言語を理解することができると主張している。
この仮説は,事前学習されたトランスフォーマーベース言語モデルを用いて,コード解析タスクを実行することによって検討する。
論文 参考訳(メタデータ) (2020-06-22T21:56:14Z) - UDapter: Language Adaptation for Truly Universal Dependency Parsing [6.346772579930929]
言語間干渉と抑制されたモデルキャパシティは、多言語依存解析の主要な障害である。
本稿では,コンテキストパラメータ生成とアダプタモジュールに基づく多言語タスク適応手法を提案する。
その結果、UDapterは、高リソースと低リソース(ゼロショット)両方の言語で、強いモノリンガルと多言語ベースラインを上回ります。
論文 参考訳(メタデータ) (2020-04-29T16:52:50Z) - Coreferential Reasoning Learning for Language Representation [88.14248323659267]
本稿では,コンテキスト内でコアファーデンシャル関係をキャプチャ可能な新しい言語表現モデルCorefBERTを提案する。
実験の結果,既存のベースラインモデルと比較して,CorefBERTは下流のNLPタスクにおいて一貫した大幅な改善を達成できることがわかった。
論文 参考訳(メタデータ) (2020-04-15T03:57:45Z) - Transition-Based Dependency Parsing using Perceptron Learner [34.59241394911966]
Perceptron Learner を用いたトランジッションベースの依存性解析に取り組む。
提案モデルでは,Perceptron Learnerにより関連性の高い機能を付加し,ベースラインのアーク標準よりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-01-22T20:58:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。