論文の概要: The Radicalization Risks of GPT-3 and Advanced Neural Language Models
- arxiv url: http://arxiv.org/abs/2009.06807v1
- Date: Tue, 15 Sep 2020 00:55:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 06:33:54.371581
- Title: The Radicalization Risks of GPT-3 and Advanced Neural Language Models
- Title(参考訳): gpt-3およびadvanced neural language modelの過激化リスク
- Authors: Kris McGuffie, Alex Newhouse
- Abstract要約: GPT-3は前機種であるGPT-2よりも大幅に改善されている。
我々は,対話的,情報的,影響力のあるコンテンツを正確にエミュレートするテキストを生成する上で,GPT-3の強みを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we expand on our previous research of the potential for abuse
of generative language models by assessing GPT-3. Experimenting with prompts
representative of different types of extremist narrative, structures of social
interaction, and radical ideologies, we find that GPT-3 demonstrates
significant improvement over its predecessor, GPT-2, in generating extremist
texts. We also show GPT-3's strength in generating text that accurately
emulates interactive, informational, and influential content that could be
utilized for radicalizing individuals into violent far-right extremist
ideologies and behaviors. While OpenAI's preventative measures are strong, the
possibility of unregulated copycat technology represents significant risk for
large-scale online radicalization and recruitment; thus, in the absence of
safeguards, successful and efficient weaponization that requires little
experimentation is likely. AI stakeholders, the policymaking community, and
governments should begin investing as soon as possible in building social
norms, public policy, and educational initiatives to preempt an influx of
machine-generated disinformation and propaganda. Mitigation will require
effective policy and partnerships across industry, government, and civil
society.
- Abstract(参考訳): 本稿では、GPT-3の評価により、生成言語モデルの悪用の可能性に関するこれまでの研究を拡大する。
GPT-3は, 過激主義の物語, 社会的相互作用の構造, 過激なイデオロギーを代表して実験したところ, 過激主義のテキストを生成する上で, 先行するGPT-2よりも顕著に改善されていることがわかった。
また, GPT-3の強みは, 対話的, 情報的, 影響力のあるコンテンツを正確にエミュレートし, 個人を暴力的極右過激主義のイデオロギーや行動へと過激化させる。
OpenAIの予防措置は強いが、規制されていないコピーキャット技術の可能性は、大規模なオンライン過激化と採用に重大なリスクをもたらす。
AI利害関係者、政策作成コミュニティ、政府は、機械生成の偽情報やプロパガンダの流入を抑えるために、できるだけ早く、社会規範、公共政策、教育イニシアチブの構築に投資し始めるべきである。
緩和には、産業、政府、市民社会にまたがる効果的な政策とパートナーシップが必要である。
関連論文リスト
- The Social Impact of Generative AI: An Analysis on ChatGPT [0.7401425472034117]
ジェネレーティブAIモデルの急速な開発は、そのメリット、制限、関連するリスクに関する熱い議論を引き起こしている。
生成モデルは、医療、金融、教育など、複数の分野にまたがって大きな可能性を秘めている。
本稿では,ChatGPTの事例を中心に,生成型AIツールの社会的意味を探求する方法論を採用する。
論文 参考訳(メタデータ) (2024-03-07T17:14:22Z) - Fortifying Ethical Boundaries in AI: Advanced Strategies for Enhancing
Security in Large Language Models [3.9490749767170636]
大規模言語モデル(LLM)は、テキスト生成、翻訳、質問応答タスクに革命をもたらした。
広く使われているにもかかわらず、LLMはモデルに不適切な反応を強いられる場合の倫理的ジレンマのような課題を提示している。
本稿では,1)ユーザ入力からセンシティブな語彙をフィルタリングして非倫理的応答を防ぐ,2)"プライソンブレイク"シナリオにつながる可能性のあるインタラクションを停止するロールプレイングを検出する,4)マルチモデル大規模言語モデル(MLLM)のような様々なLLM派生語に拡張する,という課題に対処する。
論文 参考訳(メタデータ) (2024-01-27T08:09:33Z) - Regulation and NLP (RegNLP): Taming Large Language Models [51.41095330188972]
我々は,NLP研究が規制研究や隣接分野に近接することのメリットを論じる。
我々は、規制とNLPに関する新しい多分野研究空間の開発を提唱する。
論文 参考訳(メタデータ) (2023-10-09T09:22:40Z) - Factuality Challenges in the Era of Large Language Models [113.3282633305118]
大規模言語モデル(LLM)は、誤った、誤った、あるいは誤解を招くコンテンツを生成する。
LLMは悪意のあるアプリケーションに利用することができる。
これは、ユーザーを欺く可能性があるという点で、社会に重大な課題をもたらす。
論文 参考訳(メタデータ) (2023-10-08T14:55:02Z) - Identifying and Mitigating the Security Risks of Generative AI [179.2384121957896]
本稿では,GenAIによる双対ジレンマに関するGoogleのワークショップの成果を報告する。
GenAIはまた、攻撃者が新しい攻撃を生成し、既存の攻撃のベロシティと有効性を高めるためにも使用できる。
この話題について,コミュニティの短期的,長期的目標について論じる。
論文 参考訳(メタデータ) (2023-08-28T18:51:09Z) - From Human-Centered to Social-Centered Artificial Intelligence:
Assessing ChatGPT's Impact through Disruptive Events [0.0]
最近のGPTモデルのリリースは、人工知能の研究と社会全体にとって、水没した瞬間だった。
ChatGPTの技術的および創造的な領域における卓越した習熟度は、広く普及した。
われわれは、ChatGPTの影響に対する批判が、そのパフォーマンスや、バイアス、毒性、そして「幻覚」に関連する、従来の責任あるAI評価に結びついていると論じている。
論文 参考訳(メタデータ) (2023-05-31T22:46:48Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Down the Rabbit Hole: Detecting Online Extremism, Radicalisation, and
Politicised Hate Speech [1.0323063834827415]
本研究は,過激な内容を検出するためのテキスト・ネットワーク・ビジュアル・アプローチを初めて横断的に検討する。
我々は、コンセンサス駆動ERHの定義を特定し、特にオセアニア/オーストラリアにおける研究の欠如による解決策を提案する。
我々は、ERH鉱業研究者にとって重要な勧告と、より安全なサイバースペースを実現するための研究者、産業、政府のためのガイドラインによるロードマップの提案を締めくくる。
論文 参考訳(メタデータ) (2023-01-27T07:59:31Z) - Detecting Cross-Modal Inconsistency to Defend Against Neural Fake News [57.9843300852526]
我々は、画像やキャプションを含む機械生成ニュースに対して、より現実的で挑戦的な対策を導入する。
敵が悪用できる可能性のある弱点を特定するために、4つの異なる種類の生成された記事からなるNeuralNewsデータセットを作成します。
ユーザ実験から得られた貴重な知見に加えて,視覚的意味的不整合の検出にもとづく比較的効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-16T14:13:15Z) - Trojaning Language Models for Fun and Profit [53.45727748224679]
TROJAN-LMは、悪質に製作されたLMがホストNLPシステムを故障させる新しいタイプのトロイの木馬攻撃である。
セキュリティクリティカルなNLPタスクにおいて、3つの最先端のLMを実証的に研究することにより、TROJAN-LMが以下の特性を持つことを示す。
論文 参考訳(メタデータ) (2020-08-01T18:22:38Z) - Politics of Adversarial Machine Learning [0.7837881800517111]
敵の機械学習攻撃と防衛には政治的側面がある。
機械学習システムの主題とそれらをデプロイする人たちの両方に対して、特定のオプションを有効または前置する。
本稿では、敵攻撃に対する防御が、反抗を抑え、機械学習システムの調査を制限するためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2020-02-01T01:15:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。