論文の概要: The Dark Side of ChatGPT: Legal and Ethical Challenges from Stochastic
Parrots and Hallucination
- arxiv url: http://arxiv.org/abs/2304.14347v1
- Date: Fri, 21 Apr 2023 16:40:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-30 07:11:29.397460
- Title: The Dark Side of ChatGPT: Legal and Ethical Challenges from Stochastic
Parrots and Hallucination
- Title(参考訳): ChatGPTのダークサイド:確率的パロットと幻覚からの法的・倫理的挑戦
- Authors: Zihao Li
- Abstract要約: EUはAIモデルに焦点を絞った最初の、そして最も重要な司法管轄区域である。
新たなLLMによるリスクは、新興のEU規制パラダイムによって過小評価される可能性が高い。
この対応は、欧州のAI規制パラダイムがそのようなリスクを軽減するためにさらに進化する必要があることを警告する。
- 参考スコア(独自算出の注目度): 3.76162652649642
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the launch of ChatGPT, Large Language Models (LLMs) are shaking up our
whole society, rapidly altering the way we think, create and live. For
instance, the GPT integration in Bing has altered our approach to online
searching. While nascent LLMs have many advantages, new legal and ethical risks
are also emerging, stemming in particular from stochastic parrots and
hallucination. The EU is the first and foremost jurisdiction that has focused
on the regulation of AI models. However, the risks posed by the new LLMs are
likely to be underestimated by the emerging EU regulatory paradigm. Therefore,
this correspondence warns that the European AI regulatory paradigm must evolve
further to mitigate such risks.
- Abstract(参考訳): ChatGPTのローンチによって、Large Language Models(LLM)は私たちの社会全体を揺るがし、私たちの考え方、創造、そして生き方を変えつつある。
例えば、BingのGPT統合は、オンライン検索へのアプローチを変えました。
初期のLSMには多くの利点があるが、特に確率的なオウムや幻覚から生じる新しい法的および倫理的リスクも出現している。
EUは、AIモデルの規制に焦点を絞った最初の、そして最も重要な管轄権である。
しかし、新たなLLMによるリスクは、新興のEU規制パラダイムによって過小評価される可能性が高い。
したがって、この対応は欧州のAI規制パラダイムがそのようなリスクを軽減するためにさらに進化する必要があることを警告する。
関連論文リスト
- Global Challenge for Safe and Secure LLMs Track 1 [57.08717321907755]
LLM(Global Challenge for Safe and Secure Large Language Models)は、AI Singapore(AISG)とCyberSG R&D Programme Office(CRPO)が主催する先駆的イニシアチブである。
本稿では,AI Singapore(AISG)とCyberSG R&D Programme Office(CRPO)が組織した先駆的イニシアチブであるLLM(Global Challenge for Safe and Secure Large Language Models)を紹介する。
論文 参考訳(メタデータ) (2024-11-21T08:20:31Z) - ChatGLM-RLHF: Practices of Aligning Large Language Models with Human Feedback [86.87638927637005]
ChatGLMは、大規模言語モデル(LLM)を利用した、無償のAIサービスである。
本稿では,ChatGLM-RLHFパイプラインについて述べる。
論文 参考訳(メタデータ) (2024-04-01T05:39:36Z) - Generative AI in EU Law: Liability, Privacy, Intellectual Property, and Cybersecurity [1.9806397201363817]
本稿では、欧州連合の文脈におけるジェネレーティブAIと大規模言語モデル(LLM)の法的および規制的意味について述べる。
責任、プライバシー、知的財産権、サイバーセキュリティの側面を分析する。
生成モデルの安全性とコンプライアンスを保証するためのレコメンデーションを提案している。
論文 参考訳(メタデータ) (2024-01-14T19:16:29Z) - How Johnny Can Persuade LLMs to Jailbreak Them: Rethinking Persuasion to
Challenge AI Safety by Humanizing LLMs [66.05593434288625]
本稿では, 大規模言語モデル (LLM) を人間のようなコミュニケーション手段として, ジェイルブレイクの新たな視点を紹介する。
本研究では,数十年にわたる社会科学研究から派生した説得的分類法を適用し,説得的敵対的プロンプト(PAP)をジェイルブレイク LLM に適用する。
PAPは、Llama 2-7b Chat、GPT-3.5、GPT-4の攻撃成功率を10ドルで一貫して92%以上達成している。
防衛面では,PAPに対する様々なメカニズムを探索し,既存の防衛に重大なギャップがあることを見出した。
論文 参考訳(メタデータ) (2024-01-12T16:13:24Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Regulation and NLP (RegNLP): Taming Large Language Models [51.41095330188972]
我々は,NLP研究が規制研究や隣接分野に近接することのメリットを論じる。
我々は、規制とNLPに関する新しい多分野研究空間の開発を提唱する。
論文 参考訳(メタデータ) (2023-10-09T09:22:40Z) - Factuality Challenges in the Era of Large Language Models [113.3282633305118]
大規模言語モデル(LLM)は、誤った、誤った、あるいは誤解を招くコンテンツを生成する。
LLMは悪意のあるアプリケーションに利用することができる。
これは、ユーザーを欺く可能性があるという点で、社会に重大な課題をもたらす。
論文 参考訳(メタデータ) (2023-10-08T14:55:02Z) - Voluminous yet Vacuous? Semantic Capital in an Age of Large Language
Models [0.0]
大きな言語モデル(LLM)は、自然言語処理の領域において変換力として出現し、人間のようなテキストを生成する力を持つ。
本稿では、これらのモデルの進化、能力、限界について考察し、それらが引き起こす倫理的懸念を強調した。
論文 参考訳(メタデータ) (2023-05-29T09:26:28Z) - Regulating ChatGPT and other Large Generative AI Models [0.0]
大規模な生成AIモデル(LGAIM)は、私たちのコミュニケーション、図示、作成の方法に急速に変化しています。
本稿では、信頼に値するAI規制に関する現在の議論の中で、これらの新しい生成モデルについて検討する。
LGAIM設定でAIバリューチェーンをキャプチャする新しい用語が提案されている。
論文 参考訳(メタデータ) (2023-02-05T08:56:45Z) - Red teaming ChatGPT via Jailbreaking: Bias, Robustness, Reliability and
Toxicity [19.94836502156002]
大規模言語モデル(LLM)は社会的偏見と毒性を示し、無責任から生じる倫理的および社会的危険を呈する。
複数のサンプルデータセット上でChatGPTを実証的にベンチマークする。
既存のベンチマークでは、かなりの数の倫理的リスクに対処できないことが分かっています。
論文 参考訳(メタデータ) (2023-01-30T13:20:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。