論文の概要: An Experiment with the Use of ChatGPT for LCSH Subject Assignment on Electronic Theses and Dissertations
- arxiv url: http://arxiv.org/abs/2403.16424v3
- Date: Wed, 10 Jul 2024 07:14:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-11 21:20:03.938991
- Title: An Experiment with the Use of ChatGPT for LCSH Subject Assignment on Electronic Theses and Dissertations
- Title(参考訳): LCSH科目におけるChatGPTの使用実験
- Authors: Eric H. C. Chow, TJ Kao, Xiaoli Li,
- Abstract要約: 著者らはChatGPTを使用して、タイトルと抽象化に基づいて電子的論文や論文(ETD)の主題的見出しを生成する。
その結果,LCSHをETDに割り当てるのに必要なカタログ作成時間を短縮できる可能性が示唆された。
LLMによるLCSHの妥当性, 消耗性, 特異性を検証し, 向上するためには, ヒトカタログは依然として不可欠である。
- 参考スコア(独自算出の注目度): 3.605220805542737
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This study delves into the potential use of large language models (LLMs) for generating Library of Congress Subject Headings (LCSH). The authors employed ChatGPT to generate subject headings for electronic theses and dissertations (ETDs) based on their titles and abstracts. The results suggests that LLMs such as ChatGPT have the potential to reduce cataloging time needed for assigning LCSH subject terms for ETDs as well as to improve the discovery of this type of resource in academic libraries. Nonetheless, human catalogers remain essential for verifying and enhancing the validity, exhaustivity, and specificity of LCSH generated by LLMs.
- Abstract(参考訳): 本研究は,大型言語モデル (LLM) をLCSH(Community of Congress Subject Headings) に活用する可能性について考察する。
著者らはChatGPTを使用して、タイトルと抽象化に基づいて電子的論文や論文(ETD)の主題的見出しを生成する。
その結果,ChatGPT などの LLM は,LCSH を ETD に割り当てるのに必要なカタログ作成時間を短縮し,学術図書館におけるこのようなリソースの発見を改善できる可能性が示唆された。
にもかかわらず、LCSHの妥当性、排他性、特異性を検証するためには、人間のカタログは依然として不可欠である。
関連論文リスト
- A Survey Study on the State of the Art of Programming Exercise Generation using Large Language Models [0.0]
本稿では,Large Language Models (LLM) のプログラミング演習生成能力について分析する。
調査研究を通じて,技術の現状を定義し,その強みと弱みを抽出し,評価行列を提案した。
論文 参考訳(メタデータ) (2024-05-30T15:49:34Z) - Large Language Models for Data Annotation: A Survey [49.8318827245266]
LLM(Advanced Large Language Models)の出現は、データアノテーションの複雑なプロセスを自動化する前例のない機会を提供する。
この調査には、LLMが注釈付けできるデータタイプの詳細な分類、LLM生成アノテーションを利用したモデルの学習戦略のレビュー、データアノテーションにLLMを使用する際の主な課題と制限に関する詳細な議論が含まれている。
論文 参考訳(メタデータ) (2024-02-21T00:44:04Z) - A Survey on Knowledge Distillation of Large Language Models [102.84645991075283]
知識蒸留(KD)は、高度な能力をオープンソースモデルに転送するための重要な方法論である。
本稿では,大規模言語モデル(LLM)の領域におけるKDの役割を包括的に調査する。
論文 参考訳(メタデータ) (2024-02-20T16:17:37Z) - Large Language Models: A Survey [69.72787936480394]
大規模言語モデル(LLM)は、広範囲の自然言語タスクにおける強力なパフォーマンスのために、多くの注目を集めている。
LLMの汎用言語理解と生成能力は、膨大なテキストデータに基づいて数十億のモデルのパラメータを訓練することで得られる。
論文 参考訳(メタデータ) (2024-02-09T05:37:09Z) - Effective Large Language Model Adaptation for Improved Grounding and Citation Generation [48.07830615309543]
本稿では,検索した文の応答を基底にして,引用を提供することにより,大規模言語モデル(LLM)の改善に焦点を当てる。
我々は、全体論的観点から基盤を改善する新しいフレームワーク AGREE を提案する。
我々のフレームワークは, LLMを調整し, その要求を自己評価し, 検索した文書に正確な引用を提供する。
論文 参考訳(メタデータ) (2023-11-16T03:22:25Z) - The potential of LLMs for coding with low-resource and domain-specific
programming languages [0.0]
本研究は,オープンソースソフトウェアGreetlのハンスル(Hansl)という,econometricスクリプティング言語に焦点を当てたものである。
この結果から, LLMはグレタブルコードの記述, 理解, 改善, 文書化に有用なツールであることが示唆された。
論文 参考訳(メタデータ) (2023-07-24T17:17:13Z) - PRISMA-DFLLM: An Extension of PRISMA for Systematic Literature Reviews
using Domain-specific Finetuned Large Language Models [0.0]
本稿では,Large Language Models(LLMs)のパワーと,PRISMA(Preferred Reporting Items for Systematic Reviews and Meta-Analyses)の厳密な報告ガイドラインを組み合わせたAI対応方法論フレームワークを提案する。
厳密なSLRプロセスの結果として選択されたドメイン固有の学術論文にLCMを微調整することにより、提案するPRISMA-DFLLMレポートガイドラインは、より効率、再利用性、拡張性を達成する可能性を秘めている。
論文 参考訳(メタデータ) (2023-06-15T02:52:50Z) - Analysis of ChatGPT on Source Code [1.3381749415517021]
本稿では,大規模言語モデル(LLM),特にプログラミング,ソースコード解析,コード生成におけるChatGPTの利用について検討する。
LLMとChatGPTは機械学習と人工知能の技術を使って構築されており、開発者とプログラマにいくつかの利点を提供している。
論文 参考訳(メタデータ) (2023-06-01T12:12:59Z) - Self-Checker: Plug-and-Play Modules for Fact-Checking with Large Language Models [75.75038268227554]
Self-Checkerはファクトチェックを容易にするプラグインとプレイモジュールからなるフレームワークである。
このフレームワークは、低リソース環境でファクトチェックシステムを構築するための、高速で効率的な方法を提供する。
論文 参考訳(メタデータ) (2023-05-24T01:46:07Z) - Algorithmic Ghost in the Research Shell: Large Language Models and
Academic Knowledge Creation in Management Research [0.0]
本稿では,学術知識創造における大規模言語モデルの役割について考察する。
これには、書き込み、編集、レビュー、データセットの作成、キュレーションが含まれる。
論文 参考訳(メタデータ) (2023-03-10T14:25:29Z) - Neuro-Symbolic Causal Language Planning with Commonsense Prompting [67.06667162430118]
言語プランニングは、より単純な低レベルステップに分解することで、複雑な高レベルな目標を実装することを目的としている。
以前の手法では、大規模な言語モデルからそのような能力を得るために、手動の例えか注釈付きプログラムが必要である。
本稿では,LLMからの手続き的知識をコモンセンス・インフュージョン・プロンプトにより引き起こすニューロシンボリック因果言語プランナー(CLAP)を提案する。
論文 参考訳(メタデータ) (2022-06-06T22:09:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。