論文の概要: Exploring the Capabilities of ChatGPT in Ancient Chinese Translation and
Person Name Recognition
- arxiv url: http://arxiv.org/abs/2312.15304v2
- Date: Fri, 23 Feb 2024 05:24:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-26 17:40:38.867648
- Title: Exploring the Capabilities of ChatGPT in Ancient Chinese Translation and
Person Name Recognition
- Title(参考訳): 古代中国語翻訳におけるChatGPTの機能探索と人名認識
- Authors: Shijing Si, Siqing Zhou, Le Tang, Xiaoqing Cheng, Yugui Zhang
- Abstract要約: ChatGPTの現代標準言語を扱う能力は、古代中国語を理解する上でのその使用の可能性を示している。
本稿では,古代中国語から現代中国語への翻訳と古代中国語の認識という2つの課題を通じて,古代中国語におけるChatGPTの能力について考察する。
- 参考スコア(独自算出の注目度): 4.936721946125588
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: ChatGPT's proficiency in handling modern standard languages suggests
potential for its use in understanding ancient Chinese. This paper explores
ChatGPT's capabilities on ancient Chinese via two tasks: translating ancient
Chinese to modern Chinese and recognizing ancient Chinese names. A comparison
of ChatGPT's output with human translations serves to evaluate its
comprehension of ancient Chinese. The findings indicate that: (1.)the
proficiency of ancient Chinese by ChatGPT is yet to reach a satisfactory level;
(2.) ChatGPT performs the best on ancient-to-modern translation when feeding
with three context sentences. To help reproduce our work, we display the python
code snippets used in this study.
- Abstract(参考訳): ChatGPTの現代標準言語を扱う能力は、古代中国語を理解するのにその可能性を示している。
本稿では,古代中国語から現代中国語への翻訳と古代中国語の認識という,古代中国語におけるChatGPTの能力について考察する。
ChatGPTの出力と人間の翻訳を比較することは、古代中国語の理解を評価するのに役立つ。
その結果, (1.) ChatGPTによる古代中国語の習熟度はまだ満足のいくレベルに達しておらず, (2.) ChatGPTは3つの文脈文を摂食する際に, 現代語訳において最善を尽くしていることがわかった。
この研究で使われているpythonのコードスニペットを表示します。
関連論文リスト
- Exploring the effectiveness of ChatGPT-based feedback compared with
teacher feedback and self-feedback: Evidence from Chinese to English
translation [1.25097469793837]
最先端のAIを搭載したChatGPTは、与えられたコマンドに対して素早くレスポンスを生成することができる。
本研究は,中国語訳文の改訂版と,中国語訳文(MTI)の学生による英語訳文を比較した。
論文 参考訳(メタデータ) (2023-09-04T14:54:39Z) - Shuo Wen Jie Zi: Rethinking Dictionaries and Glyphs for Chinese Language
Pre-training [50.100992353488174]
辞書知識と漢字の構造を持つ中国語PLMの意味理解能力を高める新しい学習パラダイムであるCDBERTを紹介する。
我々はCDBERTの2つの中核モジュールを Shuowen と Jiezi と名付け、そこで Shuowen は中国語辞書から最も適切な意味を取り出す過程を指す。
本パラダイムは,従来の中国語PLMのタスク間における一貫した改善を実証する。
論文 参考訳(メタデータ) (2023-05-30T05:48:36Z) - Kanbun-LM: Reading and Translating Classical Chinese in Japanese Methods by Language Models [17.749113496737106]
世界で最初の古典漢文データセットを構築した。
漢字の並べ替えや機械翻訳は漢文理解において重要な役割を担っている。
コードとデータセットはGitHubでリリースしています。
論文 参考訳(メタデータ) (2023-05-22T06:30:02Z) - ChatLog: Carefully Evaluating the Evolution of ChatGPT Across Time [54.18651663847874]
ChatGPTは大きな成功をおさめ、インフラ的な地位を得たと考えられる。
既存のベンチマークでは,(1)周期的評価の無視,(2)きめ細かい特徴の欠如という2つの課題に直面する。
2023年3月から現在まで,21のNLPベンチマークに対して,さまざまな長文ChatGPT応答を大規模に記録した常時更新データセットであるChatLogを構築している。
論文 参考訳(メタデータ) (2023-04-27T11:33:48Z) - Phoenix: Democratizing ChatGPT across Languages [68.75163236421352]
我々は大規模な言語モデル「フェニックス」をリリースし、オープンソースの英語モデルと中国語モデルの間で競合する性能を実現した。
この作業は、特にOpenAIやローカルなゴーバーメントの制限により、人々がChatGPTを使えない国では、ChatGPTをよりアクセスしやすいものにする上で有益であると考えています。
論文 参考訳(メタデータ) (2023-04-20T16:50:04Z) - How to Design Translation Prompts for ChatGPT: An Empirical Study [18.678893287863033]
ChatGPTは自然言語理解と自然言語生成において驚くべき能力を示した。
私たちは、広範囲の翻訳にいくつかの翻訳プロンプトを採用しています。
私たちの研究は、ChatGPTが翻訳において大きな可能性を秘めているという実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-04-05T01:17:59Z) - Towards Making the Most of ChatGPT for Machine Translation [75.576405098545]
ChatGPTは機械翻訳(MT)の優れた機能を示す
いくつかの先行研究により、ハイソース言語の商用システムと同等の結果が得られることが示されている。
論文 参考訳(メタデータ) (2023-03-24T03:35:21Z) - Is ChatGPT A Good Translator? Yes With GPT-4 As The Engine [97.8609714773255]
機械翻訳におけるChatGPTの評価には,翻訳プロンプト,多言語翻訳,翻訳堅牢性などが含まれる。
ChatGPTは商用翻訳製品と競合するが、低リソースや遠方の言語では遅れている。
GPT-4エンジンの打ち上げにより、ChatGPTの翻訳性能は大幅に向上した。
論文 参考訳(メタデータ) (2023-01-20T08:51:36Z) - Exploring and Adapting Chinese GPT to Pinyin Input Method [48.15790080309427]
我々は,中国GPTをピンイン入力に活用する最初の探索を行っている。
凍結したGPTは、完璧なピニイン上で最先端のパフォーマンスを達成する。
しかし、入力に短縮ピンインが含まれていると、性能が劇的に低下する。
論文 参考訳(メタデータ) (2022-03-01T06:05:07Z) - AnchiBERT: A Pre-Trained Model for Ancient ChineseLanguage Understanding
and Generation [22.08457469951396]
AnchiBERTは、BERTのアーキテクチャに基づいた事前訓練された言語モデルである。
詩分類を含む言語理解タスクと生成タスクの両面でAnchiBERTを評価した。
論文 参考訳(メタデータ) (2020-09-24T03:41:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。