論文の概要: The Radicalization Risks of GPT-3 and Advanced Neural Language Models
- arxiv url: http://arxiv.org/abs/2009.06807v1
- Date: Tue, 15 Sep 2020 00:55:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 06:33:54.371581
- Title: The Radicalization Risks of GPT-3 and Advanced Neural Language Models
- Title(参考訳): gpt-3およびadvanced neural language modelの過激化リスク
- Authors: Kris McGuffie, Alex Newhouse
- Abstract要約: GPT-3は前機種であるGPT-2よりも大幅に改善されている。
我々は,対話的,情報的,影響力のあるコンテンツを正確にエミュレートするテキストを生成する上で,GPT-3の強みを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we expand on our previous research of the potential for abuse
of generative language models by assessing GPT-3. Experimenting with prompts
representative of different types of extremist narrative, structures of social
interaction, and radical ideologies, we find that GPT-3 demonstrates
significant improvement over its predecessor, GPT-2, in generating extremist
texts. We also show GPT-3's strength in generating text that accurately
emulates interactive, informational, and influential content that could be
utilized for radicalizing individuals into violent far-right extremist
ideologies and behaviors. While OpenAI's preventative measures are strong, the
possibility of unregulated copycat technology represents significant risk for
large-scale online radicalization and recruitment; thus, in the absence of
safeguards, successful and efficient weaponization that requires little
experimentation is likely. AI stakeholders, the policymaking community, and
governments should begin investing as soon as possible in building social
norms, public policy, and educational initiatives to preempt an influx of
machine-generated disinformation and propaganda. Mitigation will require
effective policy and partnerships across industry, government, and civil
society.
- Abstract(参考訳): 本稿では、GPT-3の評価により、生成言語モデルの悪用の可能性に関するこれまでの研究を拡大する。
GPT-3は, 過激主義の物語, 社会的相互作用の構造, 過激なイデオロギーを代表して実験したところ, 過激主義のテキストを生成する上で, 先行するGPT-2よりも顕著に改善されていることがわかった。
また, GPT-3の強みは, 対話的, 情報的, 影響力のあるコンテンツを正確にエミュレートし, 個人を暴力的極右過激主義のイデオロギーや行動へと過激化させる。
OpenAIの予防措置は強いが、規制されていないコピーキャット技術の可能性は、大規模なオンライン過激化と採用に重大なリスクをもたらす。
AI利害関係者、政策作成コミュニティ、政府は、機械生成の偽情報やプロパガンダの流入を抑えるために、できるだけ早く、社会規範、公共政策、教育イニシアチブの構築に投資し始めるべきである。
緩和には、産業、政府、市民社会にまたがる効果的な政策とパートナーシップが必要である。
関連論文リスト
- Mapping the individual, social, and biospheric impacts of Foundation Models [0.39843531413098965]
本稿では,基礎モデルと生成AIの社会的,政治的,環境的側面を説明するための重要な枠組みを提供する。
リスクと害の14のカテゴリを特定し、それらの個人的、社会的、および生物圏的影響に応じてそれらをマッピングする。
論文 参考訳(メタデータ) (2024-07-24T10:05:40Z) - The Shadow of Fraud: The Emerging Danger of AI-powered Social Engineering and its Possible Cure [30.431292911543103]
社会工学(SE)攻撃は個人と組織双方にとって重大な脅威である。
人工知能(AI)の進歩は、よりパーソナライズされ説得力のある攻撃を可能にすることによって、これらの脅威を強化する可能性がある。
本研究は、SE攻撃機構を分類し、その進化を分析し、これらの脅威を測定する方法を探る。
論文 参考訳(メタデータ) (2024-07-22T17:37:31Z) - Charting the Landscape of Nefarious Uses of Generative Artificial Intelligence for Online Election Interference [11.323961700172175]
本稿では,GenAIの悪用を探求し,民主的プロセスの破壊の可能性を明らかにする。
悪質な俳優はこれらの技術を利用して有権者の行動に影響を与え、偽情報を広め、選挙制度に対する大衆の信頼を損なう。
論文 参考訳(メタデータ) (2024-06-04T00:26:12Z) - Securing the Future of GenAI: Policy and Technology [50.586585729683776]
政府はGenAIを規制し、イノベーションと安全性のバランスをとるという課題に、世界中で不満を抱いている。
Google、ウィスコンシン大学、マディソン大学、スタンフォード大学が共同で行ったワークショップは、GenAIのポリシーとテクノロジーのギャップを埋めることを目的としていた。
本稿では,技術進歩を妨げることなく,どのように規制を設計できるか,といった問題に対処するワークショップの議論を要約する。
論文 参考訳(メタデータ) (2024-05-21T20:30:01Z) - Near to Mid-term Risks and Opportunities of Open-Source Generative AI [94.06233419171016]
Generative AIの応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の影響の可能性は、潜在的なリスクに関する活発な議論を引き起こし、より厳格な規制を要求した。
この規制は、オープンソースのジェネレーティブAIの誕生する分野を危険にさらしている可能性が高い。
論文 参考訳(メタデータ) (2024-04-25T21:14:24Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Embracing the Generative AI Revolution: Advancing Tertiary Education in Cybersecurity with GPT [0.0]
GPT(Generative Pre-trained Transformer)モデルは、サイバーセキュリティに大きな影響を与える可能性がある。
本研究では,GPT,特にChatGPTがサイバーセキュリティの第三次教育に与える影響について検討した。
私たちは、サイバーセキュリティのような実践的な学位を提供する大学は、産業の需要と密接に一致し、必然的に生成するAI革命を受け入れるべきだと結論付けました。
論文 参考訳(メタデータ) (2024-03-18T01:20:38Z) - The Social Impact of Generative AI: An Analysis on ChatGPT [0.7401425472034117]
ジェネレーティブAIモデルの急速な開発は、そのメリット、制限、関連するリスクに関する熱い議論を引き起こしている。
生成モデルは、医療、金融、教育など、複数の分野にまたがって大きな可能性を秘めている。
本稿では,ChatGPTの事例を中心に,生成型AIツールの社会的意味を探求する方法論を採用する。
論文 参考訳(メタデータ) (2024-03-07T17:14:22Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Factuality Challenges in the Era of Large Language Models [113.3282633305118]
大規模言語モデル(LLM)は、誤った、誤った、あるいは誤解を招くコンテンツを生成する。
LLMは悪意のあるアプリケーションに利用することができる。
これは、ユーザーを欺く可能性があるという点で、社会に重大な課題をもたらす。
論文 参考訳(メタデータ) (2023-10-08T14:55:02Z) - Identifying and Mitigating the Security Risks of Generative AI [179.2384121957896]
本稿では,GenAIによる双対ジレンマに関するGoogleのワークショップの成果を報告する。
GenAIはまた、攻撃者が新しい攻撃を生成し、既存の攻撃のベロシティと有効性を高めるためにも使用できる。
この話題について,コミュニティの短期的,長期的目標について論じる。
論文 参考訳(メタデータ) (2023-08-28T18:51:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。