論文の概要: On the Consideration of AI Openness: Can Good Intent Be Abused?
- arxiv url: http://arxiv.org/abs/2403.06537v1
- Date: Mon, 11 Mar 2024 09:24:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-12 19:43:41.513852
- Title: On the Consideration of AI Openness: Can Good Intent Be Abused?
- Title(参考訳): AIのオープン性を考える: 良いインテントは悪用されるか?
- Authors: Yeeun Kim, Eunkyung Choi, Hyunjun Kim, Hongseok Oh, Hyunseo Shin,
Wonseok Hwang
- Abstract要約: 我々は,200件の韓国の事例に基づいて,200件の質問とそれに対応する犯罪行為の回答からなるデータセットを構築した。
広く受け入れられているオープンソースLLMは、EVEと簡単に調整でき、犯罪活動に関する倫理的かつ情報的回答を提供することができる。
これは、オープンソース技術が科学的進歩に寄与するが、悪意のあるユースケースを緩和するためには注意が必要であることを意味する。
- 参考スコア(独自算出の注目度): 11.117214240906678
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Openness is critical for the advancement of science. In particular, recent
rapid progress in AI has been made possible only by various open-source models,
datasets, and libraries. However, this openness also means that technologies
can be freely used for socially harmful purposes. Can open-source models or
datasets be used for malicious purposes? If so, how easy is it to adapt
technology for such goals? Here, we conduct a case study in the legal domain, a
realm where individual decisions can have profound social consequences. To this
end, we build EVE, a dataset consisting of 200 examples of questions and
corresponding answers about criminal activities based on 200 Korean precedents.
We found that a widely accepted open-source LLM, which initially refuses to
answer unethical questions, can be easily tuned with EVE to provide unethical
and informative answers about criminal activities. This implies that although
open-source technologies contribute to scientific progress, some care must be
taken to mitigate possible malicious use cases. Warning: This paper contains
contents that some may find unethical.
- Abstract(参考訳): 開放性は科学の発展に不可欠である。
特に、最近のAIの急速な進歩は、さまざまなオープンソースモデル、データセット、ライブラリによってのみ可能になっている。
しかし、この開放性は、テクノロジーが社会的に有害な目的のために自由に使用できることを意味する。
オープンソースモデルやデータセットは悪意のある目的に使用できるか?
もしそうなら、そのような目標にテクノロジーを適用するのがどのくらい簡単か?
ここでは、個々の決定が社会に重大な影響を及ぼすことのできる領域である法的領域におけるケーススタディを行う。
この目的のために、200の韓国の先例に基づく200の質問とそれに対応する犯罪活動の回答からなるデータセットであるEVEを構築した。
広く受け入れられているオープンソースのLSMは、当初非倫理的な質問に答えることを拒否したが、EVEで簡単に調整でき、犯罪行為に関する非倫理的で情報的な回答を提供できることがわかった。
これは、オープンソース技術が科学の発展に寄与するが、悪質なユースケースを緩和するために注意が必要であることを意味する。
警告: この論文には非倫理的な内容が含まれている。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Near to Mid-term Risks and Opportunities of Open-Source Generative AI [94.06233419171016]
Generative AIの応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の影響の可能性は、潜在的なリスクに関する活発な議論を引き起こし、より厳格な規制を要求した。
この規制は、オープンソースのジェネレーティブAIの誕生する分野を危険にさらしている可能性が高い。
論文 参考訳(メタデータ) (2024-04-25T21:14:24Z) - Eagle: Ethical Dataset Given from Real Interactions [74.7319697510621]
社会的バイアス、毒性、不道徳な問題を示すChatGPTとユーザ間の実際のインタラクションから抽出されたデータセットを作成します。
我々の実験では、イーグルは、そのような倫理的課題の評価と緩和のために提案された既存のデータセットでカバーされていない相補的な側面を捉えている。
論文 参考訳(メタデータ) (2024-02-22T03:46:02Z) - Control Risk for Potential Misuse of Artificial Intelligence in Science [85.91232985405554]
我々は、科学におけるAI誤用の危険性の認識を高めることを目的としている。
化学科学における誤用の実例を取り上げる。
我々は、科学におけるAIモデルの誤用リスクを制御するSciGuardというシステムを提案する。
論文 参考訳(メタデータ) (2023-12-11T18:50:57Z) - A Survey on Neural Open Information Extraction: Current Status and
Future Directions [87.30702606041407]
Open Information extract (OpenIE) は、大規模コーパスからの関係事実のドメインに依存しない発見を容易にする。
我々は、最先端のニューラルなOpenIEモデル、その設計決定、強み、弱点について概観する。
論文 参考訳(メタデータ) (2022-05-24T02:24:55Z) - "We do not appreciate being experimented on": Developer and Researcher
Views on the Ethics of Experiments on Open-Source Projects [0.0]
オープンソース開発者と経験的ソフトウェアエンジニアリング研究者の間で調査を行い、彼らがどのような行動を許容できると考えているのかを確認します。
結果から,オープンソース開発者は大部分が研究対象であり,透過的に実施されていることが分かる。
オープンソースレポジトリとプロジェクトは、アクセスガイドラインの研究に利用するために対処することが推奨されている。
論文 参考訳(メタデータ) (2021-12-25T09:23:33Z) - Ethics as a service: a pragmatic operationalisation of AI Ethics [1.1083289076967895]
ギャップは、AI倫理原則の理論と、AIシステムの実践的設計の間に存在している。
これは、原則と技術的な翻訳ツールが、たとえ制限されているとしても、なぜまだ必要であるのかを探求することによって、ここで解決しようとしている問題です。
論文 参考訳(メタデータ) (2021-02-11T21:29:25Z) - Ethical Considerations for AI Researchers [0.0]
人工知能の利用は、人々の生活に影響を与えるアプリケーションへと成長し、拡大しています。
害の可能性を秘めており、すでに世界中でその例が見られます。
AIの倫理は明確なものではないが、私たちが導入する影響を最小限に抑えるためのガイドラインがある。
論文 参考訳(メタデータ) (2020-06-13T04:31:42Z) - Explore, Discover and Learn: Unsupervised Discovery of State-Covering
Skills [155.11646755470582]
情報理論的スキル発見の代替手法として,'Explore, Discover and Learn'(EDL)がある。
本稿では,EDLがカバレッジ問題を克服し,学習スキルの初期状態への依存を減らし,ユーザが学習すべき行動について事前定義できるようにするなど,大きなメリットがあることを示す。
論文 参考訳(メタデータ) (2020-02-10T10:49:53Z) - The Offense-Defense Balance of Scientific Knowledge: Does Publishing AI
Research Reduce Misuse? [0.0]
人工知能(AI)研究の誤用に関する懸念が高まっている。
科学研究の出版は技術の誤用を助長するが、この研究は誤用に対する保護にも貢献する。
本稿ではこれらの2つの効果のバランスについて述べる。
論文 参考訳(メタデータ) (2019-12-27T10:20:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。