論文の概要: The Offense-Defense Balance of Scientific Knowledge: Does Publishing AI
Research Reduce Misuse?
- arxiv url: http://arxiv.org/abs/2001.00463v2
- Date: Thu, 9 Jan 2020 23:24:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-09 22:45:31.026085
- Title: The Offense-Defense Balance of Scientific Knowledge: Does Publishing AI
Research Reduce Misuse?
- Title(参考訳): 科学知識の悪影響バランス:AI研究の出版は誤用を減らすか?
- Authors: Toby Shevlane, Allan Dafoe
- Abstract要約: 人工知能(AI)研究の誤用に関する懸念が高まっている。
科学研究の出版は技術の誤用を助長するが、この研究は誤用に対する保護にも貢献する。
本稿ではこれらの2つの効果のバランスについて述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is growing concern over the potential misuse of artificial intelligence
(AI) research. Publishing scientific research can facilitate misuse of the
technology, but the research can also contribute to protections against misuse.
This paper addresses the balance between these two effects. Our theoretical
framework elucidates the factors governing whether the published research will
be more useful for attackers or defenders, such as the possibility for adequate
defensive measures, or the independent discovery of the knowledge outside of
the scientific community. The balance will vary across scientific fields.
However, we show that the existing conversation within AI has imported concepts
and conclusions from prior debates within computer security over the disclosure
of software vulnerabilities. While disclosure of software vulnerabilities often
favours defence, this cannot be assumed for AI research. The AI research
community should consider concepts and policies from a broad set of adjacent
fields, and ultimately needs to craft policy well-suited to its particular
challenges.
- Abstract(参考訳): 人工知能(ai)研究の潜在的な誤用に対する懸念が高まっている。
科学研究の出版は技術の誤用を助長するが、この研究は誤用に対する保護にも貢献する。
本稿ではこれらの2つの効果のバランスについて述べる。
本研究は, 適切な防御策の可能性や, 科学界外における知識の独立発見など, 攻撃者や防衛者にとってより有用であるかどうかを規定する要因を明らかにする。
バランスは科学分野によって異なる。
しかし、AI内の既存の会話は、ソフトウェア脆弱性の開示に関するコンピュータセキュリティに関する以前の議論から概念や結論を取り入れたことを示している。
ソフトウェア脆弱性の開示は、しばしば防衛を好むが、これはAI研究には当てはまらない。
AI研究コミュニティは、幅広い分野のコンセプトとポリシーを検討すべきであり、究極的には、その特定の課題に適合したポリシーを構築する必要がある。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Control Risk for Potential Misuse of Artificial Intelligence in Science [85.91232985405554]
我々は、科学におけるAI誤用の危険性の認識を高めることを目的としている。
化学科学における誤用の実例を取り上げる。
我々は、科学におけるAIモデルの誤用リスクを制御するSciGuardというシステムを提案する。
論文 参考訳(メタデータ) (2023-12-11T18:50:57Z) - Quantifying the Benefit of Artificial Intelligence for Scientific Research [2.4700789675440524]
我々は、科学研究におけるAIの直接的な利用とAIの潜在的利益の両方を見積もる。
研究におけるAIの利用は科学に広く浸透しており、特に2015年以来急速に成長している。
我々の分析は、AIが多くの科学分野に利益をもたらす可能性があることを示しているが、AI教育とその研究応用の間には顕著な断絶がある。
論文 参考訳(メタデータ) (2023-04-17T08:08:50Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z) - A narrowing of AI research? [0.0]
学術と民間におけるAI研究のテーマ的多様性の進化について研究する。
我々は、AI研究における民間企業の影響力を、彼らが受け取った引用と他の機関とのコラボレーションを通じて測定する。
論文 参考訳(メタデータ) (2020-09-22T08:23:56Z) - The Threats of Artificial Intelligence Scale (TAI). Development,
Measurement and Test Over Three Application Domains [0.0]
いくつかの世論調査は、自律ロボットと人工知能(FARAI)の公衆の恐怖を頻繁に問う
我々は、AIシステムの4つの機能クラスを考慮し、AIアプリケーションの様々な領域に適用可能な、AIの脅威知覚を測定するためのきめ細かいスケールを提案する。
データは提案されたAIのThreats of AI(TAI)スケールの次元構造と、インジケータの内部一貫性と因子的妥当性をサポートする。
論文 参考訳(メタデータ) (2020-06-12T14:15:02Z) - AI safety: state of the field through quantitative lens [0.0]
AIの安全性は、人間にとって有益なAIを構築する技術に焦点を当てた比較的新しい研究分野である。
AIに関する具体的なポリシーに関する研究は、極めて不足している。
AIが社会の変化の主要な推進力になることを期待しているので、AIの安全性は人類の将来の方向性を決定する必要がある分野です。
論文 参考訳(メタデータ) (2020-02-12T11:26:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。