論文の概要: To Be, Or Not To Be?: Regulating Impossible AI in the United States
- arxiv url: http://arxiv.org/abs/2408.01440v1
- Date: Sat, 20 Jul 2024 08:37:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-19 04:59:02.249113
- Title: To Be, Or Not To Be?: Regulating Impossible AI in the United States
- Title(参考訳): あり得ない? - アメリカでAIを規制する
- Authors: Maanas Kumar Sharma,
- Abstract要約: 論文は、Impossible AIの3つの例を、開発、展開、批判、政府の規制を通じて追跡している。
我々は,これらのシステムの基本的不確実性を中心とし,クリティハイプに対する注意を喚起する機能優先アプローチを推し進める。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many AI systems are deployed even when they do not work. Some AI will simply never be able to perform the task it claims to perform. We call such systems Impossible AI. This paper seeks to provide an integrated introduction to Impossible AI in the United States and guide advocates, both technical and policy, to push forward regulation of Impossible AI in the U.S. The paper tracks three examples of Impossible AI through their development, deployment, criticism, and government regulation (or lack thereof). We combine this with an analysis of the fundamental barriers in the way of current calls for Impossible AI regulation and then offer areas and directions in which to focus advocacy. In particular, we advance a functionality-first approach that centers the fundamental impossibility of these systems and caution against criti-hype. This work is part of a broader shift in the community to focus on validity challenges to AI, the decision not to deploy technical systems, and connecting technical work with advocacy.
- Abstract(参考訳): 多くのAIシステムは、機能しない場合でもデプロイされる。
一部のAIは、単に自分が実行していると主張するタスクを実行できない。
このようなシステムをImpossible AIと呼ぶ。
本稿では、米国におけるImpossible AIの総合的な導入と、技術と政策の両面から、米国におけるImpossible AIの規制の推進を指導することを目的とする。
本稿は、Impossible AIの開発、展開、批判、政府規制(あるいはその欠如)を通じて、Impossible AIの3つの例をトラックする。
私たちはこれを、現在のImpossible AI規制の呼び方における基本的な障壁の分析と組み合わせて、擁護に焦点を合わせるための領域と方向を提供します。
特に,これらのシステムの基本的不確実性に着目し,クリティハイプに対する注意を喚起する機能優先アプローチを推進している。
この作業は、AIに対する妥当性の課題、技術的システムをデプロイしない決定、技術的作業と擁護とを結びつけることに焦点を当てる、コミュニティの広範なシフトの一部である。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Taking AI Welfare Seriously [0.5617572524191751]
我々は、近い将来、一部のAIシステムが意識的または堅牢に作用する可能性があると論じている。
これは近い将来の問題であり、AI企業や他のアクターはそれを真剣に取り始める責任がある。
論文 参考訳(メタデータ) (2024-11-04T17:57:57Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - A Technological Perspective on Misuse of Available AI [41.94295877935867]
民間人工知能(AI)の悪意ある誤用は、国家や国際レベルでのセキュリティに深刻な脅威をもたらす可能性がある。
既存のオープンなAI技術が、いかに誤用されているかを示します。
我々は、政治的、デジタル的、物理的セキュリティを脅かす、潜在的に誤用されたAIの典型的なユースケースを3つ開発する。
論文 参考訳(メタデータ) (2024-03-22T16:30:58Z) - Ten Hard Problems in Artificial Intelligence We Must Get Right [72.99597122935903]
AIの約束を阻止し、AIのリスクを引き起こすAI2050の「ハード問題」について検討する。
それぞれの問題について、その領域を概説し、最近の重要な作業を特定し、今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-06T23:16:41Z) - A Red Teaming Framework for Securing AI in Maritime Autonomous Systems [0.0]
海上自律システムのAIセキュリティを評価するための,最初のレッドチームフレームワークを提案する。
このフレームワークはマルチパートのチェックリストであり、異なるシステムや要件に合わせて調整できる。
私たちはこのフレームワークが、現実の海上自律システムAI内の多数の脆弱性を明らかにするために、レッドチームにとって非常に効果的であることを実証しています。
論文 参考訳(メタデータ) (2023-12-08T14:59:07Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - AI Failures: A Review of Underlying Issues [0.0]
私たちは、概念化、設計、デプロイメントの欠陥を考慮して、AIの失敗に焦点を当てています。
AIシステムは、AIシステムの設計において、欠落とコミッショニングエラーのために失敗する。
AIシステムは、事実上道徳的な判断を下すことが求められる状況で、かなり失敗する可能性が高い。
論文 参考訳(メタデータ) (2020-07-18T15:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。