論文の概要: Development of the ChatGPT, Generative Artificial Intelligence and
Natural Large Language Models for Accountable Reporting and Use (CANGARU)
Guidelines
- arxiv url: http://arxiv.org/abs/2307.08974v1
- Date: Tue, 18 Jul 2023 05:12:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-19 16:34:34.679139
- Title: Development of the ChatGPT, Generative Artificial Intelligence and
Natural Large Language Models for Accountable Reporting and Use (CANGARU)
Guidelines
- Title(参考訳): カウンタブルレポーティング・ユース(CANGARU)ガイドラインのためのチャットGPT, 生成人工知能, 自然言語モデルの開発
- Authors: Giovanni E. Cacciamani, Michael B. Eppler, Conner Ganjavi, Asli Pekan,
Brett Biedermann, Gary S. Collins, Inderbir S. Gill
- Abstract要約: CANGARUは、学術におけるGAI/GPT/LLM技術の倫理的利用、開示、適切な報告に関する学際的グローバルコンセンサスを促進することを目的としている。
本プロトコルは, GAI/GPT/LLMアプリケーションについて, 学術研究における関連概念, 発見, 報告標準を理解し, その利用と開示に関するガイドラインを定式化するために, 進行中の体系的レビューから成り立っている。
- 参考スコア(独自算出の注目度): 0.33249867230903685
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The swift progress and ubiquitous adoption of Generative AI (GAI), Generative
Pre-trained Transformers (GPTs), and large language models (LLMs) like ChatGPT,
have spurred queries about their ethical application, use, and disclosure in
scholarly research and scientific productions. A few publishers and journals
have recently created their own sets of rules; however, the absence of a
unified approach may lead to a 'Babel Tower Effect,' potentially resulting in
confusion rather than desired standardization. In response to this, we present
the ChatGPT, Generative Artificial Intelligence, and Natural Large Language
Models for Accountable Reporting and Use Guidelines (CANGARU) initiative, with
the aim of fostering a cross-disciplinary global inclusive consensus on the
ethical use, disclosure, and proper reporting of GAI/GPT/LLM technologies in
academia. The present protocol consists of four distinct parts: a) an ongoing
systematic review of GAI/GPT/LLM applications to understand the linked ideas,
findings, and reporting standards in scholarly research, and to formulate
guidelines for its use and disclosure, b) a bibliometric analysis of existing
author guidelines in journals that mention GAI/GPT/LLM, with the goal of
evaluating existing guidelines, analyzing the disparity in their
recommendations, and identifying common rules that can be brought into the
Delphi consensus process, c) a Delphi survey to establish agreement on the
items for the guidelines, ensuring principled GAI/GPT/LLM use, disclosure, and
reporting in academia, and d) the subsequent development and dissemination of
the finalized guidelines and their supplementary explanation and elaboration
documents.
- Abstract(参考訳): ジェネレーティブAI(GAI)やジェネレーティブ・プレトレーニング・トランスフォーマー(GPT)、ChatGPTのような大規模言語モデル(LLM)の急速な進歩とユビキタスな採用により、学術研究や科学生産における倫理的応用、使用、開示に関する問い合わせが急増した。
いくつかの出版社や雑誌は最近独自のルールを作成したが、統一的なアプローチがないと「バベル・タワー効果」となり、望ましい標準化よりも混乱を招く可能性がある。
そこで本研究では,学界におけるgai/gpt/llm技術の倫理的利用,開示,適切な報告に関する学際的総合的なコンセンサスを育成することを目的として,chatgpt,generative artificial intelligence,natural large language models for accountable reporting and use guidelines (cangaru)イニシアチブを提案する。
現在のプロトコルは4つの異なる部分で構成されている。
a) GAI/GPT/LLM適用の体系的見直しは、学術研究における関連概念、発見及び報告基準を理解し、その使用及び開示のガイドラインを定式化する。
b)gai/gpt/llmに関するジャーナルにおける既存の著者ガイドラインの書誌学的分析,既存のガイドラインの評価,勧告の相違の分析,delphiコンセンサスプロセスに導入可能な共通ルールの特定を目標とする。
c) ガイドラインの項目に関する合意を確立するためのデルフィ調査、原則的GAI/GPT/LLMの使用、開示及びアカデミックにおける報告の確保
d) 最終ガイドラインのその後の開発及び普及とその補足的な説明及び明細書
関連論文リスト
- Systematic Task Exploration with LLMs: A Study in Citation Text Generation [63.50597360948099]
大規模言語モデル(LLM)は、複雑な創造的自然言語生成(NLG)タスクの定義と実行において、前例のない柔軟性をもたらす。
本稿では,系統的な入力操作,参照データ,出力測定からなる3成分研究フレームワークを提案する。
我々はこのフレームワークを用いて引用テキスト生成を探索する。これは一般的なNLPタスクであり、タスク定義と評価基準に関するコンセンサスを欠いている。
論文 参考訳(メタデータ) (2024-07-04T16:41:08Z) - Learnable Item Tokenization for Generative Recommendation [78.30417863309061]
LETTER (Larnable Tokenizer for generaTivE Recommendation) を提案する。
LETTERは、セマンティック正規化のためのResidual Quantized VAE、協調正規化のためのコントラストアライメント損失、コードの割り当てバイアスを軽減するための多様性損失を組み込んでいる。
論文 参考訳(メタデータ) (2024-05-12T15:49:38Z) - GenRES: Rethinking Evaluation for Generative Relation Extraction in the
Era of Large Language Models [48.56814147033251]
我々は、GRE結果の類似性、特異性、粒度、事実性、完全性の観点から、多次元評価のためのGenRESを紹介する。
GenRESでは、精度/リコールがGREメソッドの性能を正当化できないことを実証的に確認した。
次に、GRE手法のヒト評価を行い、GenRESがRE品質に対するヒトの嗜好と一致していることを示す。
論文 参考訳(メタデータ) (2024-02-16T15:01:24Z) - Knowledge Graphs and Pre-trained Language Models enhanced Representation Learning for Conversational Recommender Systems [58.561904356651276]
本稿では,対話型推薦システムのためのエンティティの意味理解を改善するために,知識強化型エンティティ表現学習(KERL)フレームワークを紹介する。
KERLは知識グラフと事前訓練された言語モデルを使用して、エンティティの意味的理解を改善する。
KERLはレコメンデーションとレスポンス生成の両方のタスクで最先端の結果を達成する。
論文 参考訳(メタデータ) (2023-12-18T06:41:23Z) - Can GPT models Follow Human Summarization Guidelines? Evaluating ChatGPT
and GPT-4 for Dialogue Summarization [2.6321077922557192]
本研究は,対話要約のための人間のガイドラインに従う上で,ChatGPT や GPT-4 のようなプロンプト駆動型大規模言語モデル (LLM) の能力について検討する。
以上の結果から,GPTモデルは長大な要約を産出し,人間の要約ガイドラインから逸脱することが多いことが示唆された。
人間のガイドラインを中間的なステップとして使うと、約束が示され、いくつかのケースでは単語長の制約プロンプトよりも優れています。
論文 参考訳(メタデータ) (2023-10-25T17:39:07Z) - Exploring Large Language Model for Graph Data Understanding in Online
Job Recommendations [63.19448893196642]
本稿では,大規模言語モデルが提供するリッチな文脈情報と意味表現を利用して行動グラフを解析する新しいフレームワークを提案する。
この機能を利用することで、個々のユーザに対してパーソナライズされた、正確なジョブレコメンデーションが可能になる。
論文 参考訳(メタデータ) (2023-07-10T11:29:41Z) - Ethical Aspects of ChatGPT in Software Engineering Research [4.0594888788503205]
ChatGPTは、自然言語の相互作用に基づいた効率的でアクセスしやすい情報分析と合成を提供することで、ソフトウェア工学(SE)の研究プラクティスを改善することができる。
しかしChatGPTは、盗用、プライバシー、データセキュリティ、バイアスや有害なデータを生成するリスクを含む倫理的課題をもたらす可能性がある。
本研究の目的は、モチベーター、デモティベーター、SEリサーチでChatGPTを使用する倫理的原則といった重要な要素を解明することで、与えられたギャップを埋めることである。
論文 参考訳(メタデータ) (2023-06-13T06:13:21Z) - Large-Scale Text Analysis Using Generative Language Models: A Case Study
in Discovering Public Value Expressions in AI Patents [2.246222223318928]
本稿では,生成言語モデル(GPT-4)を用いて,大規模テキスト解析のためのラベルと論理式を生成する手法を提案する。
InnovationQ+に送信された高度なBooleanクエリを用いて、154,934件の特許文書からなるデータベースを収集する。
我々は、これらのAI特許文中の公開価値表現を識別し、ラベル付けするためのフレームワークを設計する。
論文 参考訳(メタデータ) (2023-05-17T17:18:26Z) - Sparks of Artificial General Recommender (AGR): Early Experiments with
ChatGPT [33.424692414746836]
AGRは会話性と普遍性の両方からなり、自然対話に関わり、様々な領域にまたがってレコメンデーションを生成する。
我々は、AGRが従うべき基本原則を10つ提案し、それぞれに対応するテストプロトコルを提案する。
我々は,高度なLCMであるChatGPTが,モデルとのレコメンデーション指向の対話に係わるとともに,その振る舞いを観察することで,提案原則に従うことができるかどうかを評価する。
論文 参考訳(メタデータ) (2023-05-08T07:28:16Z) - FAIR for AI: An interdisciplinary and international community building
perspective [19.2239109259925]
FAIRの原則は、適切なデータ管理とスチュワードシップの前提条件として2016年に提案された。
FAIRの原則は、データを生成するソフトウェア、ツール、アルゴリズム、データセットを含むように再解釈または拡張されている。
このレポートは2022年6月7日にアルゴンヌ国立研究所で開催されたFAIR for AIワークショップに基づいている。
論文 参考訳(メタデータ) (2022-09-30T22:05:46Z) - Treebanking User-Generated Content: a UD Based Overview of Guidelines,
Corpora and Unified Recommendations [58.50167394354305]
本稿では、ウェブやソーシャルメディアで見られるユーザ生成テキストの分析に困難をもたらす主要な言語現象について論じる。
本研究は,これらのテキストの特定の現象を一貫した処理を促進するための,一時的UDベースのガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2020-11-03T23:34:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。