論文の概要: A Large Language Model Supported Synthesis of Contemporary Academic
Integrity Research Trends
- arxiv url: http://arxiv.org/abs/2401.03481v1
- Date: Sun, 7 Jan 2024 13:23:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-09 18:36:09.928580
- Title: A Large Language Model Supported Synthesis of Contemporary Academic
Integrity Research Trends
- Title(参考訳): 現代学術統合研究動向の合成を支援する大規模言語モデル
- Authors: Thomas Lancaster
- Abstract要約: 本稿では,大規模言語モデル(LLM)であるChatGPTを用いた質的内容分析について報告する。
この分析は7つの研究テーマと13の重要領域を特定した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper reports on qualitative content analysis undertaken using ChatGPT,
a Large Language Model (LLM), to identify primary research themes in current
academic integrity research as well as the methodologies used to explore these
areas. The analysis by the LLM identified 7 research themes and 13 key areas
for exploration. The outcomes from the analysis suggest that much contemporary
research in the academic integrity field is guided by technology. Technology is
often explored as potential way of preventing academic misconduct, but this
could also be a limiting factor when aiming to promote a culture of academic
integrity. The findings underscore that LLM led research may be option in the
academic integrity field, but that there is also a need for continued
traditional research. The findings also indicate that researchers and
educational providers should continue to develop policy and operational
frameworks for academic integrity. This will help to ensure that academic
standards are maintained across the wide range of settings that are present in
modern education.
- Abstract(参考訳): 本稿では,大規模言語モデル(LLM)であるChatGPTを用いた質的内容分析を行い,現在の学術的完全性研究における主要な研究テーマと,これらの領域を探索するための方法論を明らかにする。
LLMの分析では7つの研究テーマと13の重要領域が特定された。
この分析の結果は、学術的整合性分野における多くの現代研究が技術によって導かれることを示唆している。
技術は学術的不正防止の潜在的方法としてしばしば検討されるが、学術的整合性の文化を促進する上での限界要因でもある。
この結果は、LLMによる研究が学術的整合性分野の選択肢である可能性を示しているが、従来の研究の継続の必要性も指摘されている。
また、研究者と教育機関は、学術的整合性のための政策と運用の枠組みを引き続き開発すべきであることを示す。
これは、現代の教育に存在している幅広い設定で学術的基準が維持されることを保証するのに役立つ。
関連論文リスト
- Chain of Ideas: Revolutionizing Research Via Novel Idea Development with LLM Agents [64.64280477958283]
科学文献の急激な増加は、研究者が最近の進歩と意義ある研究方向を見極めるのを困難にしている。
大規模言語モデル(LLM)の最近の発展は、新しい研究のアイデアを自動生成するための有望な道のりを示唆している。
本研究では, チェーン構造に関連文献を整理し, 研究領域の進展を効果的に反映する, LLMベースのエージェントであるChain-of-Ideas(CoI)エージェントを提案する。
論文 参考訳(メタデータ) (2024-10-17T03:26:37Z) - NLP-Powered Repository and Search Engine for Academic Papers: A Case Study on Cyber Risk Literature with CyLit [9.621564860645513]
自然言語処理(NLP)技術を活用した新しいフレームワークを提案する。
このフレームワークは、特定の研究領域内の学術文献の検索、要約、クラスタリングを自動化する。
我々は,サイバーリスク文献に特化して設計されたNLPベースのリポジトリであるCyLitを紹介する。
論文 参考訳(メタデータ) (2024-09-10T05:41:40Z) - A Survey on Knowledge Organization Systems of Research Fields: Resources and Challenges [0.0]
知識組織システム(KOS)は、情報の分類、管理、検索において基本的な役割を果たす。
本稿は、現在のKOSに関する総合的な研究成果を学術分野に提示することを目的としている。
我々は、スコープ、構造、使用法、および他のKOSへのリンクの5つの主要な次元に基づいて45のKOSを分析した。
論文 参考訳(メタデータ) (2024-09-06T17:54:43Z) - Retrieval-Enhanced Machine Learning: Synthesis and Opportunities [60.34182805429511]
検索エンハンスメントは機械学習(ML)の幅広い範囲に拡張できる
この研究は、MLの様々な領域の文献を、現在の文献から欠落している一貫した表記で合成することで、このパラダイムの正式なフレームワークであるRetrieval-Enhanced Machine Learning (REML)を導入する。
本研究の目的は、様々な分野の研究者に対して、検索強化モデルの包括的、正式に構造化された枠組みを付与し、学際的な将来の研究を促進することである。
論文 参考訳(メタデータ) (2024-07-17T20:01:21Z) - A Survey on Large Language Models for Critical Societal Domains: Finance, Healthcare, and Law [65.87885628115946]
大規模言語モデル(LLM)は、金融、医療、法律の展望に革命をもたらしている。
我々は、医療における診断・治療方法論の強化、財務分析の革新、法的解釈・コンプライアンス戦略の精査におけるLCMの役割を強調した。
これらの分野におけるLLMアプリケーションの倫理を批判的に検討し、既存の倫理的懸念と透明で公平で堅牢なAIシステムの必要性を指摘した。
論文 参考訳(メタデータ) (2024-05-02T22:43:02Z) - Insights Towards Better Case Study Reporting in Software Engineering [0.0]
本稿では,ケーススタディレポートの質と影響を高める知見を共有することを目的とする。
ケーススタディでは、確立されたガイドライン、正確な分類、詳細な文脈記述に従うことの必要性を強調した。
我々は,ケーススタディが方法論的に健全であることを保証するために,より厳密でコミュニケーション的な戦略を採用するよう研究者に促すことを目指している。
論文 参考訳(メタデータ) (2024-02-13T12:29:26Z) - Recent Advances in Hate Speech Moderation: Multimodality and the Role of Large Models [52.24001776263608]
この包括的調査は、HSモデレーションの最近の歩みを掘り下げている。
大型言語モデル(LLM)と大規模マルチモーダルモデル(LMM)の急成長する役割を強調した。
研究における既存のギャップを、特に表現不足言語や文化の文脈で特定する。
論文 参考訳(メタデータ) (2024-01-30T03:51:44Z) - AcademicGPT: Empowering Academic Research [19.175478235030234]
アカデミックGPT(AcademicGPT)は、LLaMA2-70Bから派生した連続訓練モデルである。
学習コーパスは主に学術論文、論文、一部の学術ドメインからのコンテンツ、高品質な中国語データなどで構成されています。
また、AcademicGPTの基礎モデルに基づいて、一般学術質問回答、AI支援論文読解、論文レビュー、AI支援タイトル・抽象生成など、学術分野向けのいくつかのアプリケーションを開発した。
論文 参考訳(メタデータ) (2023-11-21T03:17:14Z) - A Comprehensive Overview of Large Language Models [68.22178313875618]
大規模言語モデル(LLM)は、最近自然言語処理タスクにおいて顕著な機能を示した。
本稿では, LLM関連概念の幅広い範囲について, 既存の文献について概説する。
論文 参考訳(メタデータ) (2023-07-12T20:01:52Z) - Recommendations for Systematic Research on Emergent Language [1.52292571922932]
我々は、創発的な言語研究の全体目標を特定し、それらを科学または工学のいずれかに分類する。
我々は,科学と工学の中核となる方法論的要素を提示し,その役割を現在の創発的言語研究で分析し,これらの要素をどう適用するかを推奨する。
論文 参考訳(メタデータ) (2022-06-22T18:10:44Z) - Characterising Research Areas in the field of AI [68.8204255655161]
トピックの共起ネットワーク上でクラスタリング分析を行うことで,主要な概念テーマを特定した。
その結果は、ディープラーニングや機械学習、物のインターネットといった研究テーマに対する学術的関心の高まりを浮き彫りにしている。
論文 参考訳(メタデータ) (2022-05-26T16:30:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。