論文の概要: On the Consideration of AI Openness: Can Good Intent Be Abused?
- arxiv url: http://arxiv.org/abs/2403.06537v1
- Date: Mon, 11 Mar 2024 09:24:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-12 19:43:41.513852
- Title: On the Consideration of AI Openness: Can Good Intent Be Abused?
- Title(参考訳): AIのオープン性を考える: 良いインテントは悪用されるか?
- Authors: Yeeun Kim, Eunkyung Choi, Hyunjun Kim, Hongseok Oh, Hyunseo Shin,
Wonseok Hwang
- Abstract要約: 我々は,200件の韓国の事例に基づいて,200件の質問とそれに対応する犯罪行為の回答からなるデータセットを構築した。
広く受け入れられているオープンソースLLMは、EVEと簡単に調整でき、犯罪活動に関する倫理的かつ情報的回答を提供することができる。
これは、オープンソース技術が科学的進歩に寄与するが、悪意のあるユースケースを緩和するためには注意が必要であることを意味する。
- 参考スコア(独自算出の注目度): 11.117214240906678
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Openness is critical for the advancement of science. In particular, recent
rapid progress in AI has been made possible only by various open-source models,
datasets, and libraries. However, this openness also means that technologies
can be freely used for socially harmful purposes. Can open-source models or
datasets be used for malicious purposes? If so, how easy is it to adapt
technology for such goals? Here, we conduct a case study in the legal domain, a
realm where individual decisions can have profound social consequences. To this
end, we build EVE, a dataset consisting of 200 examples of questions and
corresponding answers about criminal activities based on 200 Korean precedents.
We found that a widely accepted open-source LLM, which initially refuses to
answer unethical questions, can be easily tuned with EVE to provide unethical
and informative answers about criminal activities. This implies that although
open-source technologies contribute to scientific progress, some care must be
taken to mitigate possible malicious use cases. Warning: This paper contains
contents that some may find unethical.
- Abstract(参考訳): 開放性は科学の発展に不可欠である。
特に、最近のAIの急速な進歩は、さまざまなオープンソースモデル、データセット、ライブラリによってのみ可能になっている。
しかし、この開放性は、テクノロジーが社会的に有害な目的のために自由に使用できることを意味する。
オープンソースモデルやデータセットは悪意のある目的に使用できるか?
もしそうなら、そのような目標にテクノロジーを適用するのがどのくらい簡単か?
ここでは、個々の決定が社会に重大な影響を及ぼすことのできる領域である法的領域におけるケーススタディを行う。
この目的のために、200の韓国の先例に基づく200の質問とそれに対応する犯罪活動の回答からなるデータセットであるEVEを構築した。
広く受け入れられているオープンソースのLSMは、当初非倫理的な質問に答えることを拒否したが、EVEで簡単に調整でき、犯罪行為に関する非倫理的で情報的な回答を提供できることがわかった。
これは、オープンソース技術が科学の発展に寄与するが、悪質なユースケースを緩和するために注意が必要であることを意味する。
警告: この論文には非倫理的な内容が含まれている。
関連論文リスト
- Position: Editing Large Language Models Poses Serious Safety Risks [5.6897620867951435]
大規模言語モデルの編集は、ほとんど見落とされた深刻な安全性のリスクをもたらすと我々は主張する。
私たちはAIエコシステムの脆弱性を強調し、検証なしで更新されたモデルの無制限のアップロードとダウンロードを可能にします。
我々は、(i)悪質なモデル編集に対する研究用タンパー耐性モデルと対策をコミュニティに呼びかけ、(ii)AIエコシステムの確保に積極的に取り組みます。
論文 参考訳(メタデータ) (2025-02-05T07:51:32Z) - Near to Mid-term Risks and Opportunities of Open-Source Generative AI [94.06233419171016]
Generative AIの応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の影響の可能性は、潜在的なリスクに関する活発な議論を引き起こし、より厳格な規制を要求した。
この規制は、オープンソースのジェネレーティブAIの誕生する分野を危険にさらしている可能性が高い。
論文 参考訳(メタデータ) (2024-04-25T21:14:24Z) - Control Risk for Potential Misuse of Artificial Intelligence in Science [85.91232985405554]
我々は、科学におけるAI誤用の危険性の認識を高めることを目的としている。
化学科学における誤用の実例を取り上げる。
我々は、科学におけるAIモデルの誤用リスクを制御するSciGuardというシステムを提案する。
論文 参考訳(メタデータ) (2023-12-11T18:50:57Z) - Factuality Challenges in the Era of Large Language Models [113.3282633305118]
大規模言語モデル(LLM)は、誤った、誤った、あるいは誤解を招くコンテンツを生成する。
LLMは悪意のあるアプリケーションに利用することができる。
これは、ユーザーを欺く可能性があるという点で、社会に重大な課題をもたらす。
論文 参考訳(メタデータ) (2023-10-08T14:55:02Z) - Identifying and Mitigating the Security Risks of Generative AI [179.2384121957896]
本稿では,GenAIによる双対ジレンマに関するGoogleのワークショップの成果を報告する。
GenAIはまた、攻撃者が新しい攻撃を生成し、既存の攻撃のベロシティと有効性を高めるためにも使用できる。
この話題について,コミュニティの短期的,長期的目標について論じる。
論文 参考訳(メタデータ) (2023-08-28T18:51:09Z) - Where's the Liability in Harmful AI Speech? [42.97651263209725]
機械学習の実践者は、問題のあるスピーチを特定するために、定期的に"レッドチーム"モデルをモデル化する。
我々は,3つの責任体制について検討し,これらをレッドチームモデル行動の一般的な例に結びつける。
これらのシナリオでは、AIは責任から分類的に免疫されてはならない、と私たちは主張する。
論文 参考訳(メタデータ) (2023-08-09T00:13:00Z) - Foundation Models and Fair Use [96.04664748698103]
米国や他の国では、著作権のあるコンテンツは、公正な使用原理のために責任を負わずに基礎モデルを構築するために使われることがある。
本研究では,著作権コンテンツに基づく基礎モデルの開発と展開の潜在的なリスクについて調査する。
基礎モデルが公正な使用と一致し続けるのに役立つ技術的緩和について論じる。
論文 参考訳(メタデータ) (2023-03-28T03:58:40Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。