論文の概要: Generative AI in Writing Research Papers: A New Type of Algorithmic Bias
and Uncertainty in Scholarly Work
- arxiv url: http://arxiv.org/abs/2312.10057v1
- Date: Mon, 4 Dec 2023 04:05:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 14:01:47.938108
- Title: Generative AI in Writing Research Papers: A New Type of Algorithmic Bias
and Uncertainty in Scholarly Work
- Title(参考訳): 論文執筆におけるジェネレーティブAI: 学術研究における新しいタイプのアルゴリズムバイアスと不確実性
- Authors: Rishab Jain and Aditya Jain
- Abstract要約: 大規模言語モデル(LLM)と生成AIツールは、バイアスを特定し、対処する上での課題を提示している。
生成型AIツールは、不正な一般化、幻覚、レッド・チーム・プロンプトのような敵攻撃を目標とする可能性がある。
研究原稿の執筆過程に生成AIを組み込むことで,新しいタイプの文脈依存型アルゴリズムバイアスがもたらされることがわかった。
- 参考スコア(独自算出の注目度): 0.38850145898707145
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The use of artificial intelligence (AI) in research across all disciplines is
becoming ubiquitous. However, this ubiquity is largely driven by hyperspecific
AI models developed during scientific studies for accomplishing a well-defined,
data-dense task. These AI models introduce apparent, human-recognizable biases
because they are trained with finite, specific data sets and parameters.
However, the efficacy of using large language models (LLMs) -- and LLM-powered
generative AI tools, such as ChatGPT -- to assist the research process is
currently indeterminate. These generative AI tools, trained on general and
imperceptibly large datasets along with human feedback, present challenges in
identifying and addressing biases. Furthermore, these models are susceptible to
goal misgeneralization, hallucinations, and adversarial attacks such as red
teaming prompts -- which can be unintentionally performed by human researchers,
resulting in harmful outputs. These outputs are reinforced in research -- where
an increasing number of individuals have begun to use generative AI to compose
manuscripts. Efforts into AI interpretability lag behind development, and the
implicit variations that occur when prompting and providing context to a
chatbot introduce uncertainty and irreproducibility. We thereby find that
incorporating generative AI in the process of writing research manuscripts
introduces a new type of context-induced algorithmic bias and has unintended
side effects that are largely detrimental to academia, knowledge production,
and communicating research.
- Abstract(参考訳): あらゆる分野の研究における人工知能(AI)の利用は、ユビキタスになりつつある。
しかし、このユビキティは、よく定義されたデータ密度のタスクを達成するために科学研究中に開発された超特殊AIモデルによって主に駆動される。
これらのaiモデルは、有限の特定のデータセットとパラメータでトレーニングされるため、明白で認識可能なバイアスを導入する。
However, the efficacy of using large language models (LLMs) -- and LLM-powered generative AI tools, such as ChatGPT -- to assist the research process is currently indeterminate. These generative AI tools, trained on general and imperceptibly large datasets along with human feedback, present challenges in identifying and addressing biases. Furthermore, these models are susceptible to goal misgeneralization, hallucinations, and adversarial attacks such as red teaming prompts -- which can be unintentionally performed by human researchers, resulting in harmful outputs.
これらの成果は研究で強化されており、多くの個人が原稿作成に生成AIを使い始めています。
aiの解釈可能性への取り組みは開発に遅れ、チャットボットにコンテキストを起動し提供する際に生じる暗黙の変動は不確実性と不再現性をもたらす。
そこで,研究写本の執筆過程に生成AIを組み込むことで,新たなタイプの文脈依存型アルゴリズムバイアスを導入し,学術,知識生産,コミュニケーション研究に大きく寄与する意図しない副作用があることが判明した。
関連論文リスト
- Measuring Human Contribution in AI-Assisted Content Generation [68.03658922067487]
本研究は,AIによるコンテンツ生成における人間の貢献度を測定する研究課題を提起する。
人間の入力とAI支援出力の自己情報に対する相互情報を計算することにより、コンテンツ生成における人間の比例情報貢献を定量化する。
論文 参考訳(メタデータ) (2024-08-27T05:56:04Z) - Detecting AI-Generated Text: Factors Influencing Detectability with Current Methods [13.14749943120523]
テキストが人工知能(AI)によって作成されたかどうかを知ることは、その信頼性を決定する上で重要である。
AIGT検出に対する最先端のアプローチには、透かし、統計学的およびスタイリスティック分析、機械学習分類などがある。
AIGTテキストがどのようなシナリオで「検出可能」であるかを判断するために、結合する健全な要因についての洞察を提供することを目指している。
論文 参考訳(メタデータ) (2024-06-21T18:31:49Z) - Generative Artificial Intelligence: A Systematic Review and Applications [7.729155237285151]
本稿では、ジェネレーティブAIにおける最近の進歩と技術に関する体系的なレビューと分析について述べる。
生成AIがこれまで行った大きな影響は、大きな言語モデルの開発による言語生成である。
論文は、責任あるAIの原則と、これらの生成モデルの持続可能性と成長に必要な倫理的考察から締めくくられる。
論文 参考訳(メタデータ) (2024-05-17T18:03:59Z) - AI and Generative AI for Research Discovery and Summarization [3.8601741392210434]
AIと生成AIツールが今年中に登場し、仕事の生産性を高め、私たちの生活を改善する素晴らしい機会を生み出した。
これらのツールが大きな影響を与えうる分野の1つは、研究の発見と要約である。
我々は、研究発見と要約のためのAIと生成AIの開発をレビューし、これらのタイプのツールが将来進む可能性が高い方向を提案する。
論文 参考訳(メタデータ) (2024-01-08T18:42:55Z) - Towards Possibilities & Impossibilities of AI-generated Text Detection:
A Survey [97.33926242130732]
大規模言語モデル(LLM)は、自然言語処理(NLP)の領域に革命をもたらし、人間のようなテキスト応答を生成する能力を持つ。
これらの進歩にもかかわらず、既存の文献のいくつかは、LLMの潜在的な誤用について深刻な懸念を提起している。
これらの懸念に対処するために、研究コミュニティのコンセンサスは、AI生成テキストを検出するアルゴリズムソリューションを開発することである。
論文 参考訳(メタデータ) (2023-10-23T18:11:32Z) - Exploration with Principles for Diverse AI Supervision [88.61687950039662]
次世代の予測を用いた大規模トランスフォーマーのトレーニングは、AIの画期的な進歩を生み出した。
この生成AIアプローチは印象的な結果をもたらしたが、人間の監督に大きく依存している。
この人間の監視への強い依存は、AIイノベーションの進歩に重大なハードルをもたらす。
本稿では,高品質なトレーニングデータを自律的に生成することを目的とした,探索型AI(EAI)という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-13T07:03:39Z) - The Future of Fundamental Science Led by Generative Closed-Loop
Artificial Intelligence [67.70415658080121]
機械学習とAIの最近の進歩は、技術革新、製品開発、社会全体を破壊している。
AIは、科学的な実践とモデル発見のための高品質なデータの大規模なデータセットへのアクセスがより困難であるため、基礎科学にはあまり貢献していない。
ここでは、科学的な発見に対するAI駆動、自動化、クローズドループアプローチの側面を調査し、調査する。
論文 参考訳(メタデータ) (2023-07-09T21:16:56Z) - Detection of Fake Generated Scientific Abstracts [0.9525711971667679]
学術コミュニティは、現実と人工的に生成されたものとを区別することの難しさについて懸念を表明している。
本研究では,GPT-3モデルを用いて,人工知能による科学論文の要約を生成する。
本稿では,機械学習モデルと組み合わせたテキスト表現手法について検討する。
論文 参考訳(メタデータ) (2023-04-12T20:20:22Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Is This Abstract Generated by AI? A Research for the Gap between
AI-generated Scientific Text and Human-written Scientific Text [13.438933219811188]
本稿では,AIが生み出す科学内容と人間による文章とのギャップについて検討する。
我々は、AI生成科学テキストと人文科学テキストの間に、文章スタイルのギャップがあることを発見した。
論文 参考訳(メタデータ) (2023-01-24T04:23:20Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。