論文の概要: SikuGPT: A Generative Pre-trained Model for Intelligent Information
Processing of Ancient Texts from the Perspective of Digital Humanities
- arxiv url: http://arxiv.org/abs/2304.07778v1
- Date: Sun, 16 Apr 2023 13:25:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 17:19:40.033633
- Title: SikuGPT: A Generative Pre-trained Model for Intelligent Information
Processing of Ancient Texts from the Perspective of Digital Humanities
- Title(参考訳): SikuGPT:デジタル人間性の観点からみた古代テキストの知的情報処理のための生成事前学習モデル
- Authors: Liu Chang, Wang Dongbo, Zhao Zhixiao, Hu Die, Wu Mengcheng, Lin Litao,
Shen Si, Li Bin, Liu Jiangfeng, Zhang Hai, Zhao Lianzheng
- Abstract要約: 本稿では,Siku Quanshu のコーパスに基づく GPT モデル SikuGPT を提案する。
言語内翻訳やテキスト分類などのタスクにおけるモデルの性能は他のGPT型モデルよりも優れている。
古代中国の古文書を処理できるSikuGPTの能力は、古代の情報・知識サービスの組織化を促進するのに役立つ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The rapid advance in artificial intelligence technology has facilitated the
prosperity of digital humanities research. Against such backdrop, research
methods need to be transformed in the intelligent processing of ancient texts,
which is a crucial component of digital humanities research, so as to adapt to
new development trends in the wave of AIGC. In this study, we propose a GPT
model called SikuGPT based on the corpus of Siku Quanshu. The model's
performance in tasks such as intralingual translation and text classification
exceeds that of other GPT-type models aimed at processing ancient texts.
SikuGPT's ability to process traditional Chinese ancient texts can help promote
the organization of ancient information and knowledge services, as well as the
international dissemination of Chinese ancient culture.
- Abstract(参考訳): 人工知能技術の急速な進歩は、デジタル人文科学研究の繁栄を促した。
このような背景から、AIGCの波の新たな発展傾向に適応するためには、デジタル人文科学研究の重要な構成要素である古代のテキストのインテリジェントな処理に研究手法を転換する必要がある。
本研究では,Siku Quanshuのコーパスに基づくGPTモデルであるSikuGPTを提案する。
言語内翻訳やテキスト分類などのタスクにおけるモデルの性能は、古代のテキスト処理を目的とした他のGPT型モデルを上回る。
sikugptの中国古文書の処理能力は、中国の古代文化の国際普及と同様に、古代情報と知識サービスの組織化を促進するのに役立つ。
関連論文リスト
- From ChatGPT, DALL-E 3 to Sora: How has Generative AI Changed Digital Humanities Research and Services? [5.3743115255502545]
本稿では,デジタル人文科学研究における大規模言語モデルの応用を深く研究する。
本稿は、まず、古代の書物資源の重要性とデジタル保存の必要性について概説する。
この記事では、特定のケースを通じて、AIが古代の書籍の組織、分類、コンテンツ生成をいかに支援できるかを示す。
論文 参考訳(メタデータ) (2024-04-29T09:03:19Z) - RenAIssance: A Survey into AI Text-to-Image Generation in the Era of
Large Model [93.8067369210696]
テキスト・ツー・イメージ生成(テキスト・トゥ・イメージ・ジェネレーション、英: Text-to-image Generation、TTI)とは、テキスト入力を処理し、テキスト記述に基づいて高忠実度画像を生成するモデルである。
拡散モデル (diffusion model) は、繰り返しステップによるノイズの体系的導入を通じて画像の生成に使用される顕著な生成モデルである。
大規模モデルの時代、モデルサイズを拡大し、大規模言語モデルとの統合により、TTIモデルの性能がさらに向上した。
論文 参考訳(メタデータ) (2023-09-02T03:27:20Z) - GujiBERT and GujiGPT: Construction of Intelligent Information Processing
Foundation Language Models for Ancient Texts [11.289265479095956]
GujiBERTとGujiGPT言語モデルは、古代のテキストの知的情報処理に特化した基礎モデルである。
これらのモデルは、単純化された漢字と伝統的な漢字の両方を含む広範なデータセットで訓練されている。
これらのモデルは、公開データセットを使用して、さまざまなバリデーションタスクで例外的なパフォーマンスを示しています。
論文 参考訳(メタデータ) (2023-07-11T15:44:01Z) - SciMON: Scientific Inspiration Machines Optimized for Novelty [68.46036589035539]
文献に基づく新たな科学的方向を生成するために,ニューラルランゲージモデルを探索し,拡張する。
モデルが入力背景コンテキストとして使用される新しい設定で、劇的な出発をとっています。
本稿では,過去の科学的論文から「吸入」を抽出するモデリングフレームワークであるSciMONを紹介する。
論文 参考訳(メタデータ) (2023-05-23T17:12:08Z) - Semantic Similarity Measure of Natural Language Text through Machine
Learning and a Keyword-Aware Cross-Encoder-Ranking Summarizer -- A Case Study
Using UCGIS GIS&T Body of Knowledge [2.4909170697740968]
GIS&T Body of Knowledge (BoK)は、地理空間的トピックを定義し、開発し、文書化するためのコミュニティ主導の取り組みである。
本研究は,テキストから意味を抽出する上で,複数自然言語処理(NLP)技術の有効性を評価する。
また、科学出版物を分析するための機械学習技術の使用について、新たな視点を提供する。
論文 参考訳(メタデータ) (2023-05-17T01:17:57Z) - ChatGPT and a New Academic Reality: Artificial Intelligence-Written
Research Papers and the Ethics of the Large Language Models in Scholarly
Publishing [6.109522330180625]
ChatGPTは、テキストベースのユーザ要求を満たすために自然言語処理を使用する生成事前学習トランスフォーマーである。
GPT-3のような大規模言語モデルの出現に伴う潜在的な倫理的問題について論じる。
論文 参考訳(メタデータ) (2023-03-21T14:35:07Z) - A Survey of Text Representation Methods and Their Genealogy [0.0]
近年、高度にスケーラブルな人工神経ネットワークベースのテキスト表現法が出現し、自然言語処理の分野は前例のない成長と高度化が見られた。
我々は、系譜にそれらを配置し、テキスト表現方法の分類を概念化し、最先端の状態を検証し、説明することによって、現在のアプローチに関する調査を行う。
論文 参考訳(メタデータ) (2022-11-26T15:22:01Z) - A Survey on Retrieval-Augmented Text Generation [53.04991859796971]
Retrieval-augmented text generationは顕著な利点があり、多くのNLPタスクで最先端のパフォーマンスを実現している。
まず、検索拡張生成の一般的なパラダイムを強調し、異なるタスクに応じて注目すべきアプローチをレビューする。
論文 参考訳(メタデータ) (2022-02-02T16:18:41Z) - A Survey of Knowledge-Enhanced Text Generation [81.24633231919137]
テキスト生成の目標は、機械を人間の言語で表現できるようにすることである。
入力テキストを出力テキストにマッピングすることを学ぶことで、目的を達成するために、様々なニューラルエンコーダデコーダモデルが提案されている。
この問題に対処するために、研究者は入力テキスト以外の様々な種類の知識を生成モデルに組み込むことを検討してきた。
論文 参考訳(メタデータ) (2020-10-09T06:46:46Z) - Generating Major Types of Chinese Classical Poetry in a Uniformed
Framework [88.57587722069239]
GPT-2に基づく漢詩の主要なタイプを生成するフレームワークを提案する。
予備的な結果は、この強化されたモデルが、形も内容も質の高い大型漢詩を生成できることを示している。
論文 参考訳(メタデータ) (2020-03-13T14:16:25Z) - Exploring the Limits of Transfer Learning with a Unified Text-to-Text
Transformer [64.22926988297685]
下流タスクで微調整される前に、まずデータリッチタスクでモデルが事前訓練されるトランスファーラーニングは、自然言語処理(NLP)において強力な手法として登場した。
本稿では,すべてのテキストベースの言語問題をテキスト・トゥ・テキスト・フォーマットに変換する統一フレームワークにより,NLPのためのトランスファー学習手法を導入する状況について検討する。
論文 参考訳(メタデータ) (2019-10-23T17:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。