論文の概要: Prompt Smells: An Omen for Undesirable Generative AI Outputs
- arxiv url: http://arxiv.org/abs/2401.12611v1
- Date: Tue, 23 Jan 2024 10:10:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-24 16:21:33.843715
- Title: Prompt Smells: An Omen for Undesirable Generative AI Outputs
- Title(参考訳): prompt smells: 望ましくない生成的なai出力のためのomen
- Authors: Krishna Ronanki, Beatriz Cabrero-Daniel, Christian Berger
- Abstract要約: 我々は、GenAIモデルの適用に関する制約に対処する上で、研究コミュニティに役立つ2つの新しい概念を提案する。
まず、GenAI出力の「望ましさ」の定義と、それに影響を与える3つの要因について述べる。
第2に、Martin Fowler氏のコードの臭いからインスピレーションを得た上で、我々は「急激な臭い」の概念と、それらがGenAI出力の嫌悪性に与える影響について提案する。
- 参考スコア(独自算出の注目度): 4.105236597768038
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recent Generative Artificial Intelligence (GenAI) trends focus on various
applications, including creating stories, illustrations, poems, articles,
computer code, music compositions, and videos. Extrinsic hallucinations are a
critical limitation of such GenAI, which can lead to significant challenges in
achieving and maintaining the trustworthiness of GenAI. In this paper, we
propose two new concepts that we believe will aid the research community in
addressing limitations associated with the application of GenAI models. First,
we propose a definition for the "desirability" of GenAI outputs and three
factors which are observed to influence it. Second, drawing inspiration from
Martin Fowler's code smells, we propose the concept of "prompt smells" and the
adverse effects they are observed to have on the desirability of GenAI outputs.
We expect our work will contribute to the ongoing conversation about the
desirability of GenAI outputs and help advance the field in a meaningful way.
- Abstract(参考訳): 最近のGenerative Artificial Intelligence(GenAI)トレンドは、ストーリー、イラスト、詩、記事、コンピュータコード、作曲、ビデオなど、さまざまなアプリケーションに焦点を当てている。
外部幻覚は、そのようなGenAIの限界であり、GenAIの信頼性の達成と維持に重大な課題をもたらす可能性がある。
本稿では,GenAIモデルの適用に関する制約に対処する上で,研究コミュニティに有効な2つの新しい概念を提案する。
まず、GenAI出力の「望ましさ」の定義と、それに影響を与える3つの要因について述べる。
第2に、Martin Fowler氏のコードの臭いからインスピレーションを得た上で、我々は「急激な臭い」の概念と、それらがGenAI出力の嫌悪性に与える影響について提案する。
我々は、GenAI出力の望ましさに関する継続的な議論に貢献し、有意義な方法で分野を前進させることを期待する。
関連論文リスト
- Exploration with Principles for Diverse AI Supervision [88.61687950039662]
次世代の予測を用いた大規模トランスフォーマーのトレーニングは、AIの画期的な進歩を生み出した。
この生成AIアプローチは印象的な結果をもたらしたが、人間の監督に大きく依存している。
この人間の監視への強い依存は、AIイノベーションの進歩に重大なハードルをもたらす。
本稿では,高品質なトレーニングデータを自律的に生成することを目的とした,探索型AI(EAI)という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-13T07:03:39Z) - GenAI Against Humanity: Nefarious Applications of Generative Artificial
Intelligence and Large Language Models [11.323961700172175]
本稿は、GenAIのリスクとLLMの誤用に関する厳密な研究の合成として機能する。
我々は、私たちが目にしているGenAI革命に波及した社会的影響を明らかにする。
仮想世界と現実世界の境界線はぼやけており、GenAIの悪名高いアプリケーションの結果が私たち全員に影響を与えています。
論文 参考訳(メタデータ) (2023-10-01T17:25:56Z) - Generative AI in the Construction Industry: Opportunities & Challenges [2.562895371316868]
建設部門におけるジェネレーティブAI(GenAI)導入の機会と課題を調査する研究は、現在進行中である。
本研究は、文献における反映された知覚を掘り下げ、プログラムベースのワードクラウドと周波数分析を用いて産業的知覚を分析する。
本稿では,概念的GenAI実装フレームワークを推奨し,実践的勧告を提供し,今後の研究課題を要約し,GenAIの今後の研究展開を促進するための基礎文献を構築する。
論文 参考訳(メタデータ) (2023-09-19T18:20:49Z) - Identifying and Mitigating the Security Risks of Generative AI [179.2384121957896]
本稿では,GenAIによる双対ジレンマに関するGoogleのワークショップの成果を報告する。
GenAIはまた、攻撃者が新しい攻撃を生成し、既存の攻撃のベロシティと有効性を高めるためにも使用できる。
この話題について,コミュニティの短期的,長期的目標について論じる。
論文 参考訳(メタデータ) (2023-08-28T18:51:09Z) - Innovating Computer Programming Pedagogy: The AI-Lab Framework for
Generative AI Adoption [0.0]
我々は、中核的なプログラミングコースでGenAIを効果的に活用するために、学生を指導するフレームワーク「AI-Lab」を紹介した。
GenAIの誤りを特定し、修正することで、学生は学習プロセスを充実させる。
教育者にとって、AI-Labは、学習経験におけるGenAIの役割に対する学生の認識を探索するメカニズムを提供する。
論文 参考訳(メタデータ) (2023-08-23T17:20:37Z) - DeepfakeArt Challenge: A Benchmark Dataset for Generative AI Art Forgery
and Data Poisoning Detection [79.06544706290568]
悪意ある目的のために生成的AIを使用することについて懸念が高まっている。
DeepfakeArt Challengeは、生成AIアート偽造とデータ中毒検出のための機械学習アルゴリズムの構築を支援するために設計されたベンチマークデータセットである。
論文 参考訳(メタデータ) (2023-06-02T05:11:27Z) - A Comprehensive Survey of AI-Generated Content (AIGC): A History of
Generative AI from GAN to ChatGPT [63.58711128819828]
ChatGPTおよびその他の生成AI(GAI)技術は、人工知能生成コンテンツ(AIGC)のカテゴリに属している。
AIGCの目標は、コンテンツ作成プロセスをより効率的かつアクセスしやすくし、高品質なコンテンツをより高速に生産できるようにすることである。
論文 参考訳(メタデータ) (2023-03-07T20:36:13Z) - Investigating Explainability of Generative AI for Code through
Scenario-based Design [44.44517254181818]
生成AI(GenAI)技術は成熟し、ソフトウェア工学のようなアプリケーションドメインに適用されています。
私たちは43人のソフトウェアエンジニアと9つのワークショップを開催しました。そこでは、最先端のジェネレーティブAIモデルの実例を使って、ユーザの説明可能性のニーズを導き出しました。
我々の研究は、GenAIのコードに対する説明可能性の必要性を探求し、新しいドメインにおけるXAIの技術開発を人間中心のアプローチがいかに促進するかを実証する。
論文 参考訳(メタデータ) (2022-02-10T08:52:39Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。