論文の概要: A+AI: Threats to Society, Remedies, and Governance
- arxiv url: http://arxiv.org/abs/2409.02219v2
- Date: Sat, 7 Sep 2024 01:25:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-10 11:18:54.015477
- Title: A+AI: Threats to Society, Remedies, and Governance
- Title(参考訳): A+AI: 社会、改革、ガバナンスへの脅威
- Authors: Don Byrd,
- Abstract要約: この文書は、人工知能(AI)が社会にもたらす脅威、特に短期的な脅威に焦点を当てている。
脅威を緩和する可能性のある対策を示す表も用意されている。
同紙は、政府ができるだけ早く行うべき特定のアクションをリストアップしている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This document focuses on the threats, especially near-term threats, that Artificial Intelligence (AI) brings to society. Most of the threats discussed here can result from any algorithmic process, not just AI; in addition, defining AI is notoriously difficult. For both reasons, it is important to think of "A+AI": Algorithms and Artificial Intelligence. In addition to the threats, this paper discusses countermeasures to them, and it includes a table showing which countermeasures are likely to mitigate which threats. Thoughtful governance could manage the risks without seriously impeding progress; in fact, chances are it would accelerate progress by reducing the social chaos that would otherwise be likely. The paper lists specific actions government should take as soon as possible, namely: * Require all social media platforms accessible in the U.S. to offer users verification that their accounts are owned by citizens, and to display every account's verification status * Establish regulations to require that all products created or significantly modified with A+AI be clearly labeled as such; to restrict use of generative AI to create likenesses of persons; and to require creators of generative AI software to disclose materials used to train their software and to compensate the creators of any copyrighted material used * Fund a crash project of research on mitigating the threats * Fund educational campaigns to raise awareness of the threats
- Abstract(参考訳): この文書は、人工知能(AI)が社会にもたらす脅威、特に短期的な脅威に焦点を当てている。
ここで議論されている脅威のほとんどは、AIだけでなく、アルゴリズムのプロセスによってもたらされる。
両方の理由から、アルゴリズムと人工知能という「A+AI」を考えることが重要である。
脅威に加えて,脅威に対する対策についても論じるとともに,どの脅威を緩和するかを示す表も含む。
疑わしいガバナンスは、重大な進歩を妨げることなくリスクを管理することができる。
アメリカ合衆国内でアクセス可能なすべてのソーシャルメディアプラットフォームに対して、アカウントが市民によって所有されていることの検証と、すべてのアカウントの検証ステータスの表示を要求 * A+AIで作成または大幅に修正されたすべての製品が明確にラベル付けされること、人の類似性を創造するために生成AIの使用を制限すること、および、生成AIソフトウェアの作成者が、ソフトウェアをトレーニングするために使用される材料を開示し、使用した著作権物質の作成者を補償することを要求すること。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - A Survey on Offensive AI Within Cybersecurity [1.8206461789819075]
攻撃的AIに関する調査論文は、AIシステムに対する攻撃および使用に関する様々な側面を包括的にカバーする。
消費者、企業、公共のデジタルインフラストラクチャなど、さまざまな分野における攻撃的なAIプラクティスの影響を掘り下げる。
この論文では、敵対的な機械学習、AIモデルに対する攻撃、インフラストラクチャ、インターフェース、および情報収集、ソーシャルエンジニアリング、兵器化されたAIといった攻撃的テクニックについて検討する。
論文 参考訳(メタデータ) (2024-09-26T17:36:22Z) - Mapping Technical Safety Research at AI Companies: A literature review and incentives analysis [0.0]
レポートは、3つの主要なAI企業が実施する安全なAI開発に関する技術研究を分析している。
Anthropic、Google DeepMind、OpenAI。
私たちは安全なAI開発を、大規模な誤用や事故のリスクを生じにくいAIシステムの開発であると定義しました。
論文 参考訳(メタデータ) (2024-09-12T09:34:55Z) - Near to Mid-term Risks and Opportunities of Open-Source Generative AI [94.06233419171016]
Generative AIの応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の影響の可能性は、潜在的なリスクに関する活発な議論を引き起こし、より厳格な規制を要求した。
この規制は、オープンソースのジェネレーティブAIの誕生する分野を危険にさらしている可能性が高い。
論文 参考訳(メタデータ) (2024-04-25T21:14:24Z) - AI Safety: Necessary, but insufficient and possibly problematic [1.6797508081737678]
この記事では、AI安全性に関する最近の誇大広告について批判的に考察する。
AIの安全性」とは実際に何を意味するのかを考察し、AIの安全性のデジタルフットプリントが持つ支配的な概念を概説する。
私たちは、AIの安全性が、悪用され有害なAIに安全を害することで、構造的危害を助長するAIを正規化する方法に関する懸念を共有します。
論文 参考訳(メタデータ) (2024-03-26T06:18:42Z) - A Technological Perspective on Misuse of Available AI [41.94295877935867]
民間人工知能(AI)の悪意ある誤用は、国家や国際レベルでのセキュリティに深刻な脅威をもたらす可能性がある。
既存のオープンなAI技術が、いかに誤用されているかを示します。
我々は、政治的、デジタル的、物理的セキュリティを脅かす、潜在的に誤用されたAIの典型的なユースケースを3つ開発する。
論文 参考訳(メタデータ) (2024-03-22T16:30:58Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - The Role of Social Movements, Coalitions, and Workers in Resisting
Harmful Artificial Intelligence and Contributing to the Development of
Responsible AI [0.0]
あらゆる分野の連合は、AIの恥ずべき適用に抵抗するために世界中で活動している。
AIアルゴリズムにはバイアスがあり、不正で、乱雑な仮定が埋め込まれています。
AIの最大の貢献の1つは、人類の知恵が地球上でいかに重要かを理解することだ。
論文 参考訳(メタデータ) (2021-07-11T18:51:29Z) - The Threat of Offensive AI to Organizations [52.011307264694665]
この調査は、組織に対する攻撃的なAIの脅威を調査する。
まず、AIが敵の方法、戦略、目標、および全体的な攻撃モデルをどのように変えるかについて議論する。
そして、文献レビューを通じて、敵が攻撃を強化するために使用できる33の攻撃的AI能力を特定します。
論文 参考訳(メタデータ) (2021-06-30T01:03:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。