論文の概要: AI Horizon Scanning, White Paper p3395, IEEE-SA. Part I: Areas of Attention
- arxiv url: http://arxiv.org/abs/2410.01808v1
- Date: Fri, 13 Sep 2024 18:00:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-04 15:04:32.145654
- Title: AI Horizon Scanning, White Paper p3395, IEEE-SA. Part I: Areas of Attention
- Title(参考訳): AI水平走査, 白紙p3395, IEEE-SA : その1:注意領域
- Authors: Marina Cortês, Andrew R. Liddle, Christos Emmanouilidis, Anthony E. Kelly, Ken Matusow, Ragu Ragunathan, Jayne M. Suess, George Tambouratzis, Janusz Zalewski, David A. Bray,
- Abstract要約: この写本は、IEEE-SAのp3995: Safeguards, Controls, and Preventive Techniques for Artificial Intelligence (AI) Modelsの標準化を知らせる一連の白書の最初のものである。
この最初の地平線スキャンでは、AIにおける標準活動の重要な注意領域を特定します。
規制の取り組みに対する異なる原則を検討し、説明責任、プライバシ、データ権利、誤用の概念をレビューする。
- 参考スコア(独自算出の注目度): 0.22470290096767004
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Generative Artificial Intelligence (AI) models may carry societal transformation to an extent demanding a delicate balance between opportunity and risk. This manuscript is the first of a series of White Papers informing the development of IEEE-SA's p3995: `Standard for the Implementation of Safeguards, Controls, and Preventive Techniques for Artificial Intelligence (AI) Models', Chair: Marina Cort\^{e}s (https://standards.ieee.org/ieee/3395/11378/). In this first horizon-scanning we identify key attention areas for standards activities in AI. We examine different principles for regulatory efforts, and review notions of accountability, privacy, data rights and mis-use. As a safeguards standard we devote significant attention to the stability of global infrastructures and consider a possible overdependence on cloud computing that may result from densely coupled AI components. We review the recent cascade-failure-like Crowdstrike event in July 2024, as an illustration of potential impacts on critical infrastructures from AI-induced incidents in the (near) future. It is the first of a set of articles intended as White Papers informing the audience on the standard development. Upcoming articles will focus on regulatory initiatives, technology evolution and the role of AI in specific domains.
- Abstract(参考訳): 生成人工知能(AI)モデルは、機会とリスクの微妙なバランスを要求される程度まで社会変革を行うことができる。
IEEE-SAのp3995: 'Standard for the implementation of Safeguards, Controls, and Preventive Techniques for Artificial Intelligence (AI) Models', Chair: Marina Cort\^{e}s (https://standards.ieee.org/ieee/3395/11378/)。
この最初の地平線スキャンでは、AIにおける標準活動の重要な注意領域を特定します。
規制の取り組みに対する異なる原則を検討し、説明責任、プライバシ、データ権利、誤用の概念をレビューする。
セーフガード標準として、私たちはグローバルインフラストラクチャの安定性に大きな注意を払って、密結合したAIコンポーネントによって引き起こされる可能性のあるクラウドコンピューティングへの過度な依存について検討しています。
われわれは、2024年7月のカスケード障害のようなクラウドストレイクイベントを、(近未来の)AIによるインシデントによる重要なインフラストラクチャーに対する潜在的な影響の例としてレビューした。
ホワイトペーパーとして意図された一連の記事の1つであり、聴衆に標準的な開発を知らせている。
今後の記事は、規制イニシアチブ、技術の進化、特定のドメインにおけるAIの役割に焦点を当てる。
関連論文リスト
- Transparency, Security, and Workplace Training & Awareness in the Age of Generative AI [0.0]
AI技術の進歩に伴い、倫理的考慮、透明性、データのプライバシー、そして人間の労働への影響は、イノベーションと効率の推進力と交差する。
我々の研究は、主流の精査から離れて、しばしば周辺で機能する公開アクセス可能な大規模言語モデル(LLM)を探索する。
具体的には、制限のないコミュニケーションとプライバシを中心としたプラットフォームであるGab AIを調べ、検閲なしで自由に対話できるようにします。
論文 参考訳(メタデータ) (2024-12-19T17:40:58Z) - AI Horizon Scanning -- White Paper p3395, IEEE-SA. Part III: Technology Watch: a selection of key developments, emerging technologies, and industry trends in Artificial Intelligence [0.3277163122167434]
生成人工知能(AI)技術は、Chat-GPTの画期的なリリースに続く前例のない急速な開発段階にある。
AI製品の展開が幾何学的に増加するにつれて、AI技術が提供する脅威と機会にかなりの注意が向けられている。
この写本は、IEEE-SA の p3995 It Standard for implementation of Safeguards, Controls, and Preventive Techniques for Artificial Intelligence Models の開発を知らせる一連の白書の3番目のものである。
論文 参考訳(メタデータ) (2024-11-05T19:04:42Z) - Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Generative AI for Secure and Privacy-Preserving Mobile Crowdsensing [74.58071278710896]
生成AIは、学術分野と産業分野の両方から多くの注目を集めている。
セキュアでプライバシ保護のモバイルクラウドセンシング(SPPMCS)は、データ収集/取得に広く応用されている。
論文 参考訳(メタデータ) (2024-05-17T04:00:58Z) - How VADER is your AI? Towards a definition of artificial intelligence systems appropriate for regulation [39.58317527488534]
最近のAI規制提案では、ICT技術、アプローチ、AIではないシステムに影響を与えるAI定義が採用されている。
本稿では,AI定義の規制(VADER)が適切に定義されているかを評価するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-07T17:41:15Z) - Trust, Accountability, and Autonomy in Knowledge Graph-based AI for
Self-determination [1.4305544869388402]
知識グラフ(KG)は、インテリジェントな意思決定を支えるための基盤として登場した。
KGと神経学習の統合は、現在活発な研究のトピックである。
本稿では,KGベースのAIによる自己決定を支援するための基礎的なトピックと研究の柱を概念化する。
論文 参考訳(メタデータ) (2023-10-30T12:51:52Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Predictable Artificial Intelligence [77.1127726638209]
本稿では予測可能なAIのアイデアと課題を紹介する。
それは、現在および将来のAIエコシステムの重要な妥当性指標を予測できる方法を探る。
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。