論文の概要: A Large Language Model Supported Synthesis of Contemporary Academic
Integrity Research Trends
- arxiv url: http://arxiv.org/abs/2401.03481v1
- Date: Sun, 7 Jan 2024 13:23:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-09 18:36:09.928580
- Title: A Large Language Model Supported Synthesis of Contemporary Academic
Integrity Research Trends
- Title(参考訳): 現代学術統合研究動向の合成を支援する大規模言語モデル
- Authors: Thomas Lancaster
- Abstract要約: 本稿では,大規模言語モデル(LLM)であるChatGPTを用いた質的内容分析について報告する。
この分析は7つの研究テーマと13の重要領域を特定した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper reports on qualitative content analysis undertaken using ChatGPT,
a Large Language Model (LLM), to identify primary research themes in current
academic integrity research as well as the methodologies used to explore these
areas. The analysis by the LLM identified 7 research themes and 13 key areas
for exploration. The outcomes from the analysis suggest that much contemporary
research in the academic integrity field is guided by technology. Technology is
often explored as potential way of preventing academic misconduct, but this
could also be a limiting factor when aiming to promote a culture of academic
integrity. The findings underscore that LLM led research may be option in the
academic integrity field, but that there is also a need for continued
traditional research. The findings also indicate that researchers and
educational providers should continue to develop policy and operational
frameworks for academic integrity. This will help to ensure that academic
standards are maintained across the wide range of settings that are present in
modern education.
- Abstract(参考訳): 本稿では,大規模言語モデル(LLM)であるChatGPTを用いた質的内容分析を行い,現在の学術的完全性研究における主要な研究テーマと,これらの領域を探索するための方法論を明らかにする。
LLMの分析では7つの研究テーマと13の重要領域が特定された。
この分析の結果は、学術的整合性分野における多くの現代研究が技術によって導かれることを示唆している。
技術は学術的不正防止の潜在的方法としてしばしば検討されるが、学術的整合性の文化を促進する上での限界要因でもある。
この結果は、LLMによる研究が学術的整合性分野の選択肢である可能性を示しているが、従来の研究の継続の必要性も指摘されている。
また、研究者と教育機関は、学術的整合性のための政策と運用の枠組みを引き続き開発すべきであることを示す。
これは、現代の教育に存在している幅広い設定で学術的基準が維持されることを保証するのに役立つ。
関連論文リスト
- Retrieval-Enhanced Machine Learning: Synthesis and Opportunities [60.34182805429511]
検索エンハンスメントは機械学習(ML)の幅広い範囲に拡張できる
この研究は、MLの様々な領域の文献を、現在の文献から欠落している一貫した表記で合成することで、このパラダイムの正式なフレームワークであるRetrieval-Enhanced Machine Learning (REML)を導入する。
本研究の目的は、様々な分野の研究者に対して、検索強化モデルの包括的、正式に構造化された枠組みを付与し、学際的な将来の研究を促進することである。
論文 参考訳(メタデータ) (2024-07-17T20:01:21Z) - Self-assessment, Exhibition, and Recognition: a Review of Personality in Large Language Models [29.086329448754412]
本稿では,現在の研究を,自己評価,展示,認識という3つの研究課題に分類して総合的なレビューを行う。
本稿は,大規模言語モデルにおける人格に関する最新の文献を包括的に調査した初めての論文である。
論文 参考訳(メタデータ) (2024-06-25T15:08:44Z) - A Survey on Large Language Models for Critical Societal Domains: Finance, Healthcare, and Law [65.87885628115946]
大規模言語モデル(LLM)は、金融、医療、法律の展望に革命をもたらしている。
我々は、医療における診断・治療方法論の強化、財務分析の革新、法的解釈・コンプライアンス戦略の精査におけるLCMの役割を強調した。
これらの分野におけるLLMアプリケーションの倫理を批判的に検討し、既存の倫理的懸念と透明で公平で堅牢なAIシステムの必要性を指摘した。
論文 参考訳(メタデータ) (2024-05-02T22:43:02Z) - SurveyAgent: A Conversational System for Personalized and Efficient Research Survey [50.04283471107001]
本稿では,研究者にパーソナライズされた効率的な調査支援を目的とした会話システムであるSurveyAgentを紹介する。
SurveyAgentは3つの重要なモジュールを統合している。文書を整理するための知識管理、関連する文献を発見するための勧告、より深いレベルでコンテンツを扱うためのクエリ回答だ。
本評価は,研究活動の合理化におけるSurveyAgentの有効性を実証し,研究者の科学文献との交流を促進する能力を示すものである。
論文 参考訳(メタデータ) (2024-04-09T15:01:51Z) - Uni-SMART: Universal Science Multimodal Analysis and Research Transformer [22.90687836544612]
bfUni-textは科学文献の深い理解のために設計された革新的モデルである。
ユニテキストは、他のテキスト中心のLLMよりも優れたパフォーマンスを示す。
我々の探索は、特許侵害検出やグラフのニュアンス解析など、実用的な応用にまで及んでいる。
論文 参考訳(メタデータ) (2024-03-15T13:43:47Z) - Insights Towards Better Case Study Reporting in Software Engineering [0.0]
本稿では,ケーススタディレポートの質と影響を高める知見を共有することを目的とする。
ケーススタディでは、確立されたガイドライン、正確な分類、詳細な文脈記述に従うことの必要性を強調した。
我々は,ケーススタディが方法論的に健全であることを保証するために,より厳密でコミュニケーション的な戦略を採用するよう研究者に促すことを目指している。
論文 参考訳(メタデータ) (2024-02-13T12:29:26Z) - Scientific Large Language Models: A Survey on Biological & Chemical Domains [47.97810890521825]
大規模言語モデル(LLM)は、自然言語理解の強化において、変革的な力として現れてきた。
LLMの応用は従来の言語境界を超えて、様々な科学分野で開発された専門的な言語システムを含んでいる。
AI for Science(AI for Science)のコミュニティで急成長している分野として、科学LLMは包括的な探査を義務付けている。
論文 参考訳(メタデータ) (2024-01-26T05:33:34Z) - AcademicGPT: Empowering Academic Research [19.175478235030234]
アカデミックGPT(AcademicGPT)は、LLaMA2-70Bから派生した連続訓練モデルである。
学習コーパスは主に学術論文、論文、一部の学術ドメインからのコンテンツ、高品質な中国語データなどで構成されています。
また、AcademicGPTの基礎モデルに基づいて、一般学術質問回答、AI支援論文読解、論文レビュー、AI支援タイトル・抽象生成など、学術分野向けのいくつかのアプリケーションを開発した。
論文 参考訳(メタデータ) (2023-11-21T03:17:14Z) - A Comprehensive Overview of Large Language Models [68.22178313875618]
大規模言語モデル(LLM)は、最近自然言語処理タスクにおいて顕著な機能を示した。
本稿では, LLM関連概念の幅広い範囲について, 既存の文献について概説する。
論文 参考訳(メタデータ) (2023-07-12T20:01:52Z) - Recommendations for Systematic Research on Emergent Language [1.52292571922932]
我々は、創発的な言語研究の全体目標を特定し、それらを科学または工学のいずれかに分類する。
我々は,科学と工学の中核となる方法論的要素を提示し,その役割を現在の創発的言語研究で分析し,これらの要素をどう適用するかを推奨する。
論文 参考訳(メタデータ) (2022-06-22T18:10:44Z) - Characterising Research Areas in the field of AI [68.8204255655161]
トピックの共起ネットワーク上でクラスタリング分析を行うことで,主要な概念テーマを特定した。
その結果は、ディープラーニングや機械学習、物のインターネットといった研究テーマに対する学術的関心の高まりを浮き彫りにしている。
論文 参考訳(メタデータ) (2022-05-26T16:30:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。