論文の概要: AGGA: A Dataset of Academic Guidelines for Generative AI and Large Language Models
- arxiv url: http://arxiv.org/abs/2501.02063v1
- Date: Fri, 03 Jan 2025 19:16:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-07 17:09:56.148347
- Title: AGGA: A Dataset of Academic Guidelines for Generative AI and Large Language Models
- Title(参考訳): AGGA: 生成AIと大規模言語モデルのための学術ガイドラインのデータセット
- Authors: Junfeng Jiao, Saleh Afroogh, Kevin Chen, David Atkinson, Amit Dhurandhar,
- Abstract要約: 本稿では,GAI(Generative AI)とLLM(Large Language Models)の学術的利用に関する80のガイドラインをまとめたデータセットであるAGGAを紹介する。
このデータセットには188,674語が含まれており、要求工学に一般的に適用される自然言語処理タスクの貴重なリソースとして機能している。
- 参考スコア(独自算出の注目度): 8.420666056013685
- License:
- Abstract: This study introduces AGGA, a dataset comprising 80 academic guidelines for the use of Generative AIs (GAIs) and Large Language Models (LLMs) in academic settings, meticulously collected from official university websites. The dataset contains 188,674 words and serves as a valuable resource for natural language processing tasks commonly applied in requirements engineering, such as model synthesis, abstraction identification, and document structure assessment. Additionally, AGGA can be further annotated to function as a benchmark for various tasks, including ambiguity detection, requirements categorization, and the identification of equivalent requirements. Our methodologically rigorous approach ensured a thorough examination, with a selection of universities that represent a diverse range of global institutions, including top-ranked universities across six continents. The dataset captures perspectives from a variety of academic fields, including humanities, technology, and both public and private institutions, offering a broad spectrum of insights into the integration of GAIs and LLMs in academia.
- Abstract(参考訳): 本稿では,GAI(Generative AIs)とLLM(Large Language Models)の学術的利用に関する80のガイドラインからなるデータセットであるAGGAを紹介する。
このデータセットには188,674語が含まれており、モデル合成、抽象化識別、文書構造評価などの要求工学に一般的に適用される自然言語処理タスクの貴重なリソースとして機能している。
さらに、AGGAはあいまいさの検出、要件分類、同等の要件の識別など、さまざまなタスクのベンチマークとして機能するように注釈付けすることもできる。
方法論的に厳格なアプローチは、6大陸にまたがる上位の大学を含む多種多様なグローバルな機関を代表する大学を選定し、徹底的な審査を確実にした。
このデータセットは、人文科学、技術、公的および民間の機関など、さまざまな学術分野の視点を捉え、学術におけるGAIとLLMの統合に関する幅広い洞察を提供する。
関連論文リスト
- IGGA: A Dataset of Industrial Guidelines and Policy Statements for Generative AIs [8.420666056013685]
本稿では,GAI(Generative AIs)とLLM(Large Language Models)を産業や職場で使用するための,160の産業ガイドラインと政策ステートメントのデータセットであるIGGAを紹介する。
データセットには104,565語が含まれており、要求工学に一般的に適用される自然言語処理タスクの貴重なリソースとして機能している。
論文 参考訳(メタデータ) (2025-01-01T21:31:47Z) - Towards Global AI Inclusivity: A Large-Scale Multilingual Terminology Dataset (GIST) [19.91873751674613]
GISTは2000年から2023年にかけての上位AIカンファレンス論文から抽出された5K語を含む、大規模な多言語AI用語データセットである。
この用語はアラビア語、中国語、フランス語、日本語、ロシア語に翻訳され、LLMを抽出するためのハイブリッドフレームワークと翻訳のための人間の専門知識を組み合わせたものである。
この研究は、AI用語リソースにおける重要なギャップに対処し、AI研究におけるグローバルな傾きとコラボレーションを促進することを目的としている。
論文 参考訳(メタデータ) (2024-12-24T11:50:18Z) - From Multimodal LLMs to Generalist Embodied Agents: Methods and Lessons [85.99268361356832]
一般身体エージェント(GEA)にMLLMを適用するプロセスを紹介する。
GEAは、多体アクショントークンーザを通じて、さまざまなドメインにまたがって自分自身をグラウンド化できる単一の統一モデルである。
本研究は,汎用エージェント構築のためのクロスドメインデータとオンラインRLを用いたトレーニングの重要性を明らかにした。
論文 参考訳(メタデータ) (2024-12-11T15:06:25Z) - Personalized Multimodal Large Language Models: A Survey [127.9521218125761]
マルチモーダル大言語モデル(MLLM)は、最先端の性能と複数のデータモダリティを統合する能力により、ますます重要になっている。
本稿では,パーソナライズされたマルチモーダルな大規模言語モデルに関する包括的調査を行い,そのアーキテクチャ,トレーニング方法,アプリケーションに焦点をあてる。
論文 参考訳(メタデータ) (2024-12-03T03:59:03Z) - A large collection of bioinformatics question-query pairs over federated knowledge graphs: methodology and applications [0.0838491111002084]
本稿では,生物情報学の知識グラフを用いた人文自然言語質問とそれに対応するSPARQLクエリについて紹介する。
既存の標準に基づいて,サンプルを最小限のメタデータで一様に表現する手法を提案する。
論文 参考訳(メタデータ) (2024-10-08T13:08:07Z) - Synthetic Data (Almost) from Scratch: Generalized Instruction Tuning for
Language Models [153.14575887549088]
GLAN(Generalized Instruction Tuning)は,Large Language Models(LLM)の汎用的かつスケーラブルなチューニング手法である。
GLANは、人間の知識と能力の事前分類を入力として利用し、あらゆる分野にわたる大規模な合成指導データを生成する。
サイラバスの全クラスセッションで詳述された、きめ細かい重要な概念により、私たちは、人間の知識とスキルの全範囲にわたって幅広い範囲をカバーする多様な命令を生成できる。
論文 参考訳(メタデータ) (2024-02-20T15:00:35Z) - Large Language Models for Generative Information Extraction: A Survey [89.71273968283616]
大規模言語モデル(LLM)は、テキスト理解と生成において顕著な能力を示した。
各種IEサブタスクと技術の観点から,これらの作品を分類して概観する。
我々は,最も先進的な手法を実証的に分析し,LLMによるIEタスクの出現傾向を明らかにする。
論文 参考訳(メタデータ) (2023-12-29T14:25:22Z) - Domain Specialization as the Key to Make Large Language Models Disruptive: A Comprehensive Survey [100.24095818099522]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野を著しく進歩させた。
広範囲のアプリケーションに対して、非常に有用でタスクに依存しない基盤を提供する。
しかし、特定の領域における洗練された問題を解決するために直接LLMを適用することは、多くのハードルを満たす。
論文 参考訳(メタデータ) (2023-05-30T03:00:30Z) - OAG-BERT: Pre-train Heterogeneous Entity-augmented Academic Language
Model [45.419270950610624]
oag-bertはpaper, author, concept, venue, そしてアフィリエーションを含む巨大な異種エンティティを統合する。
ヘテロジニアスなエンティティ型埋め込み,エンティティアウェアな2次元位置符号化,スパンアウェアなエンティティマスキングを含む新しい事前学習戦略を開発した。
OAG-BERTは、NSFC(中国国立自然科学財団)のレビュアーレコメンデーションや、AMinerシステムのペーパータグ付けなど、複数の実世界のアプリケーションに展開されています。
論文 参考訳(メタデータ) (2021-03-03T14:00:57Z) - Learning Universal Representations from Word to Sentence [89.82415322763475]
この研究は普遍的な表現学習、すなわち一様ベクトル空間における言語単位の異なるレベルへの埋め込みを導入し、探求する。
本稿では, 単語, 句, 文の観点から, 類似したデータセットを構築するためのアプローチを提案する。
適切なトレーニング設定を組み込んだよく訓練されたトランスフォーマーモデルが、効果的に普遍的な表現が得られることを実証的に検証する。
論文 参考訳(メタデータ) (2020-09-10T03:53:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。