論文の概要: A Large Language Model Supported Synthesis of Contemporary Academic
Integrity Research Trends
- arxiv url: http://arxiv.org/abs/2401.03481v1
- Date: Sun, 7 Jan 2024 13:23:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-09 18:36:09.928580
- Title: A Large Language Model Supported Synthesis of Contemporary Academic
Integrity Research Trends
- Title(参考訳): 現代学術統合研究動向の合成を支援する大規模言語モデル
- Authors: Thomas Lancaster
- Abstract要約: 本稿では,大規模言語モデル(LLM)であるChatGPTを用いた質的内容分析について報告する。
この分析は7つの研究テーマと13の重要領域を特定した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper reports on qualitative content analysis undertaken using ChatGPT,
a Large Language Model (LLM), to identify primary research themes in current
academic integrity research as well as the methodologies used to explore these
areas. The analysis by the LLM identified 7 research themes and 13 key areas
for exploration. The outcomes from the analysis suggest that much contemporary
research in the academic integrity field is guided by technology. Technology is
often explored as potential way of preventing academic misconduct, but this
could also be a limiting factor when aiming to promote a culture of academic
integrity. The findings underscore that LLM led research may be option in the
academic integrity field, but that there is also a need for continued
traditional research. The findings also indicate that researchers and
educational providers should continue to develop policy and operational
frameworks for academic integrity. This will help to ensure that academic
standards are maintained across the wide range of settings that are present in
modern education.
- Abstract(参考訳): 本稿では,大規模言語モデル(LLM)であるChatGPTを用いた質的内容分析を行い,現在の学術的完全性研究における主要な研究テーマと,これらの領域を探索するための方法論を明らかにする。
LLMの分析では7つの研究テーマと13の重要領域が特定された。
この分析の結果は、学術的整合性分野における多くの現代研究が技術によって導かれることを示唆している。
技術は学術的不正防止の潜在的方法としてしばしば検討されるが、学術的整合性の文化を促進する上での限界要因でもある。
この結果は、LLMによる研究が学術的整合性分野の選択肢である可能性を示しているが、従来の研究の継続の必要性も指摘されている。
また、研究者と教育機関は、学術的整合性のための政策と運用の枠組みを引き続き開発すべきであることを示す。
これは、現代の教育に存在している幅広い設定で学術的基準が維持されることを保証するのに役立つ。
関連論文リスト
- Transforming Science with Large Language Models: A Survey on AI-assisted Scientific Discovery, Experimentation, Content Generation, and Evaluation [58.064940977804596]
多くの新しいAIモデルとツールが提案され、世界中の研究者や学者が研究をより効果的かつ効率的に実施できるようにすることを約束している。
これらのツールの欠点と誤用の可能性に関する倫理的懸念は、議論の中で特に顕著な位置を占める。
論文 参考訳(メタデータ) (2025-02-07T18:26:45Z) - Position: Multimodal Large Language Models Can Significantly Advance Scientific Reasoning [51.11965014462375]
MLLM(Multimodal Large Language Models)は、テキスト、画像、その他のモダリティを統合する。
本稿では,MLLMが数学,物理,化学,生物学などの分野にまたがる科学的推論を著しく前進させることができることを論じる。
論文 参考訳(メタデータ) (2025-02-05T04:05:27Z) - NLP-Powered Repository and Search Engine for Academic Papers: A Case Study on Cyber Risk Literature with CyLit [9.621564860645513]
自然言語処理(NLP)技術を活用した新しいフレームワークを提案する。
このフレームワークは、特定の研究領域内の学術文献の検索、要約、クラスタリングを自動化する。
我々は,サイバーリスク文献に特化して設計されたNLPベースのリポジトリであるCyLitを紹介する。
論文 参考訳(メタデータ) (2024-09-10T05:41:40Z) - A Survey on Knowledge Organization Systems of Research Fields: Resources and Challenges [0.0]
知識組織システム(KOS)は、情報の分類、管理、検索において基本的な役割を果たす。
本稿は、現在のKOSに関する総合的な研究成果を学術分野に提示することを目的としている。
我々は、スコープ、構造、使用法、および他のKOSへのリンクの5つの主要な次元に基づいて45のKOSを分析した。
論文 参考訳(メタデータ) (2024-09-06T17:54:43Z) - Retrieval-Enhanced Machine Learning: Synthesis and Opportunities [60.34182805429511]
検索エンハンスメントは機械学習(ML)の幅広い範囲に拡張できる
この研究は、MLの様々な領域の文献を、現在の文献から欠落している一貫した表記で合成することで、このパラダイムの正式なフレームワークであるRetrieval-Enhanced Machine Learning (REML)を導入する。
本研究の目的は、様々な分野の研究者に対して、検索強化モデルの包括的、正式に構造化された枠組みを付与し、学際的な将来の研究を促進することである。
論文 参考訳(メタデータ) (2024-07-17T20:01:21Z) - ResearchAgent: Iterative Research Idea Generation over Scientific Literature with Large Language Models [56.08917291606421]
ResearchAgentは、新しい作品のアイデアと運用のためのAIベースのシステムである。
ResearchAgentは、新しい問題を自動で定義し、手法と設計実験を提案し、繰り返し修正する。
我々は、複数の分野にわたる科学論文に関するResearchAgentを実験的に検証した。
論文 参考訳(メタデータ) (2024-04-11T13:36:29Z) - Insights Towards Better Case Study Reporting in Software Engineering [0.0]
本稿では,ケーススタディレポートの質と影響を高める知見を共有することを目的とする。
ケーススタディでは、確立されたガイドライン、正確な分類、詳細な文脈記述に従うことの必要性を強調した。
我々は,ケーススタディが方法論的に健全であることを保証するために,より厳密でコミュニケーション的な戦略を採用するよう研究者に促すことを目指している。
論文 参考訳(メタデータ) (2024-02-13T12:29:26Z) - A Comprehensive Overview of Large Language Models [68.22178313875618]
大規模言語モデル(LLM)は、最近自然言語処理タスクにおいて顕著な機能を示した。
本稿では, LLM関連概念の幅広い範囲について, 既存の文献について概説する。
論文 参考訳(メタデータ) (2023-07-12T20:01:52Z) - Recommendations for Systematic Research on Emergent Language [1.52292571922932]
我々は、創発的な言語研究の全体目標を特定し、それらを科学または工学のいずれかに分類する。
我々は,科学と工学の中核となる方法論的要素を提示し,その役割を現在の創発的言語研究で分析し,これらの要素をどう適用するかを推奨する。
論文 参考訳(メタデータ) (2022-06-22T18:10:44Z) - Characterising Research Areas in the field of AI [68.8204255655161]
トピックの共起ネットワーク上でクラスタリング分析を行うことで,主要な概念テーマを特定した。
その結果は、ディープラーニングや機械学習、物のインターネットといった研究テーマに対する学術的関心の高まりを浮き彫りにしている。
論文 参考訳(メタデータ) (2022-05-26T16:30:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。