論文の概要: Responsible Generative AI: What to Generate and What Not
- arxiv url: http://arxiv.org/abs/2404.05783v1
- Date: Mon, 8 Apr 2024 17:53:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-10 18:48:28.547906
- Title: Responsible Generative AI: What to Generate and What Not
- Title(参考訳): 責任ある生成AI:何を生成するか、何ができないか
- Authors: Jindong Gu,
- Abstract要約: 生成AI(GenAI)は様々な領域で注目されている。
本稿では,テキスト生成モデルと視覚生成モデルの両方の実用的責任要件について検討する。
- 参考スコア(独自算出の注目度): 15.903523057779651
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, generative AI (GenAI), like large language models and text-to-image models, has received significant attention across various domains. However, ensuring the responsible generation of content by these models is crucial for their real-world applicability. This raises an interesting question: \textit{What should responsible GenAI generate, and what should it not?} To answer the question, this paper investigates the practical responsible requirements of both textual and visual generative models, outlining five key considerations: generating truthful content, avoiding toxic content, refusing harmful instruction, leaking no training data-related content, and ensuring generated content identifiable. Specifically, we review recent advancements and challenges in addressing these requirements. Besides, we discuss and emphasize the importance of responsible GenAI across healthcare, education, finance, and artificial general intelligence domains. Through a unified perspective on both textual and visual generative models, this paper aims to provide insights into practical safety-related issues and further benefit the community in building responsible GenAI.
- Abstract(参考訳): 近年,大規模言語モデルやテキスト・ツー・イメージモデルのような生成型AI(GenAI)が,さまざまな領域で注目されている。
しかし、これらのモデルによるコンテンツの責任ある生成を保証することは、実際の適用性にとって不可欠である。
これは興味深い質問を提起する: \textit{What should responsible GenAI generate, and not it should not?
そこで本研究では,テキスト生成モデルと視覚生成モデルの両方において,真理コンテンツの生成,有害な内容の回避,有害な指導の拒否,データ関連コンテンツの漏洩,生成内容の確認という5つの重要事項を概説する。
具体的には、これらの要件に対処する上での最近の進歩と課題について概観する。
さらに、医療、教育、金融、人工知能分野における責任あるGenAIの重要性を議論し、強調する。
本稿では,テキスト生成モデルと視覚生成モデルの両方について統一的な視点で検討し,実践的安全性に関する知見を提供するとともに,コミュニティの責任を負うGenAI構築にさらなる利益をもたらすことを目的とする。
関連論文リスト
- Computational Safety for Generative AI: A Signal Processing Perspective [65.268245109828]
計算安全性は、GenAIにおける安全性の定量的評価、定式化、研究を可能にする数学的枠組みである。
ジェイルブレイクによる悪意のあるプロンプトを検出するために, 感度解析と損失景観解析がいかに有効かを示す。
我々は、AIの安全性における信号処理の鍵となる研究課題、機会、そして重要な役割について論じる。
論文 参考訳(メタデータ) (2025-02-18T02:26:50Z) - "So what if I used GenAI?" -- Implications of Using Cloud-based GenAI in Software Engineering Research [0.0]
本論文は、GenAIが用いられている様々な研究の側面に光を当て、その法的な意味を初心者や芽生えの研究者に認識させるものである。
我々は、GenAIを使用するすべてのソフトウェア研究者が、責任の主張を暴露する重大なミスを避けるために意識すべきであるという現在の知識について、重要な側面を要約する。
論文 参考訳(メタデータ) (2024-12-10T06:18:15Z) - Exploring AI Text Generation, Retrieval-Augmented Generation, and Detection Technologies: a Comprehensive Overview [0.0]
独創性、偏見、誤情報、説明責任などの問題を含む、AI生成コンテンツを取り巻く懸念が顕在化している。
本稿では、AIテキストジェネレータ(AITG)の進化、能力、倫理的意味を概観する。
本稿では,検出精度の向上,倫理的AI開発支援,アクセシビリティ向上に向けた今後の方向性について検討する。
論文 参考訳(メタデータ) (2024-12-05T07:23:14Z) - SoK: Watermarking for AI-Generated Content [112.9218881276487]
ウォーターマーキングスキームは、AI生成コンテンツに隠された信号を埋め込んで、信頼性の高い検出を可能にする。
透かしは、誤情報や偽造と戦ってAIの安全性と信頼性を高める上で重要な役割を果たす。
本研究の目的は、研究者が透かし法や応用の進歩を指導し、GenAIの幅広い意味に対処する政策立案者を支援することである。
論文 参考訳(メタデータ) (2024-11-27T16:22:33Z) - Generative Artificial Intelligence Meets Synthetic Aperture Radar: A Survey [49.29751866761522]
本稿では,GenAIとSARの交差点について検討する。
まず、SAR分野における一般的なデータ生成ベースのアプリケーションについて説明する。
次に、最新のGenAIモデルの概要を体系的にレビューする。
最後に、SARドメインの対応するアプリケーションも含まれる。
論文 参考訳(メタデータ) (2024-11-05T03:06:00Z) - Legal Aspects for Software Developers Interested in Generative AI Applications [5.772982243103395]
生成人工知能(GenAI)は、高品質なコード、自然言語、画像を生成する新しい技術を生み出している。
次のステップはGenAI技術を製品に統合することです。
この記事では、データ保護と著作権という2つのリスクの現状について光を当てます。
論文 参考訳(メタデータ) (2024-04-25T14:17:34Z) - Prompt Smells: An Omen for Undesirable Generative AI Outputs [4.105236597768038]
我々は、GenAIモデルの適用に関する制約に対処する上で、研究コミュニティに役立つ2つの新しい概念を提案する。
まず、GenAI出力の「望ましさ」の定義と、それに影響を与える3つの要因について述べる。
第2に、Martin Fowler氏のコードの臭いからインスピレーションを得た上で、我々は「急激な臭い」の概念と、それらがGenAI出力の嫌悪性に与える影響について提案する。
論文 参考訳(メタデータ) (2024-01-23T10:10:01Z) - Identifying and Mitigating the Security Risks of Generative AI [179.2384121957896]
本稿では,GenAIによる双対ジレンマに関するGoogleのワークショップの成果を報告する。
GenAIはまた、攻撃者が新しい攻撃を生成し、既存の攻撃のベロシティと有効性を高めるためにも使用できる。
この話題について,コミュニティの短期的,長期的目標について論じる。
論文 参考訳(メタデータ) (2023-08-28T18:51:09Z) - DeepfakeArt Challenge: A Benchmark Dataset for Generative AI Art Forgery and Data Poisoning Detection [57.51313366337142]
悪意ある目的のために生成的AIを使用することについて懸念が高まっている。
生成AIを用いた視覚コンテンツ合成の領域では、画像偽造とデータ中毒が重要な関心事となっている。
DeepfakeArt Challenge(ディープフェイクアートチャレンジ)は、AIアートのジェネレーションとデータ中毒検出のための機械学習アルゴリズムの構築を支援するために設計された、大規模なチャレンジベンチマークデータセットである。
論文 参考訳(メタデータ) (2023-06-02T05:11:27Z) - A Comprehensive Survey of AI-Generated Content (AIGC): A History of
Generative AI from GAN to ChatGPT [63.58711128819828]
ChatGPTおよびその他の生成AI(GAI)技術は、人工知能生成コンテンツ(AIGC)のカテゴリに属している。
AIGCの目標は、コンテンツ作成プロセスをより効率的かつアクセスしやすくし、高品質なコンテンツをより高速に生産できるようにすることである。
論文 参考訳(メタデータ) (2023-03-07T20:36:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。