論文の概要: When to Trust AI: Advances and Challenges for Certification of Neural
Networks
- arxiv url: http://arxiv.org/abs/2309.11196v1
- Date: Wed, 20 Sep 2023 10:31:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-21 16:31:40.679711
- Title: When to Trust AI: Advances and Challenges for Certification of Neural
Networks
- Title(参考訳): aiをいつ信頼するか:ニューラルネットワークの認証の進歩と課題
- Authors: Marta Kwiatkowska, Xiyue Zhang
- Abstract要約: 現実世界のアプリケーションにAI技術の早期採用は問題なく行われていない。
本稿では,AI決定の安全性を確保するために開発された技術の概要を紹介する。
- 参考スコア(独自算出の注目度): 26.890905486708117
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence (AI) has been advancing at a fast pace and it is now
poised for deployment in a wide range of applications, such as autonomous
systems, medical diagnosis and natural language processing. Early adoption of
AI technology for real-world applications has not been without problems,
particularly for neural networks, which may be unstable and susceptible to
adversarial examples. In the longer term, appropriate safety assurance
techniques need to be developed to reduce potential harm due to avoidable
system failures and ensure trustworthiness. Focusing on certification and
explainability, this paper provides an overview of techniques that have been
developed to ensure safety of AI decisions and discusses future challenges.
- Abstract(参考訳): 人工知能(ai)は急速に進歩しており、自律システム、医療診断、自然言語処理など、幅広い応用分野に展開する準備が整っている。
現実世界のアプリケーションに対するai技術の初期の採用には問題がなく、特にニューラルネットワークは不安定で、逆境の例に影響を受けやすい。
長期的には、システム障害の回避と信頼性の確保による潜在的な害を軽減するため、適切な安全保証技術を開発する必要がある。
本稿では、認証と説明可能性に着目し、ai決定の安全性を確保するために開発された技術の概要と今後の課題について述べる。
関連論文リスト
- Establishing Minimum Elements for Effective Vulnerability Management in AI Software [4.067778725390327]
本稿では,AI脆弱性管理の最小要素と人工知能脆弱性データベース(AIVD)の確立について論じる。
AI脆弱性の公開、分析、カタログ化、文書化のための標準化されたフォーマットとプロトコルを提供する。
論文 参考訳(メタデータ) (2024-11-18T06:22:20Z) - A Trilogy of AI Safety Frameworks: Paths from Facts and Knowledge Gaps to Reliable Predictions and New Knowledge [0.0]
AI安全は、AIコミュニティ内外の多くの科学者にとって重要な最前線の関心事となっている。
機械学習システムには、生存リスクから人間の存在、深い偽造、偏見まで、すぐに、長期にわたって予測されるリスクが数多く存在する。
論文 参考訳(メタデータ) (2024-10-09T14:43:06Z) - Trustworthy, Responsible, and Safe AI: A Comprehensive Architectural Framework for AI Safety with Challenges and Mitigations [14.150792596344674]
AI安全性は、AIシステムの安全な採用とデプロイにおいて重要な領域である。
私たちの目標は、AI安全研究の進歩を促進し、究極的には、デジタルトランスフォーメーションに対する人々の信頼を高めることです。
論文 参考訳(メタデータ) (2024-08-23T09:33:48Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Causal Reasoning: Charting a Revolutionary Course for Next-Generation
AI-Native Wireless Networks [63.246437631458356]
次世代無線ネットワーク(例:6G)は人工知能(AI)ネイティブである。
本稿では、新たな因果推論分野を基盤として、AIネイティブな無線ネットワークを構築するための新しいフレームワークを紹介する。
因果発見と表現によって対処できる無線ネットワークの課題をいくつか挙げる。
論文 参考訳(メタデータ) (2023-09-23T00:05:39Z) - A Survey on Explainable Artificial Intelligence for Cybersecurity [14.648580959079787]
説明可能な人工知能(XAI)は、決定と行動に対して明確かつ解釈可能な説明を提供する機械学習モデルを作成することを目的としている。
ネットワークサイバーセキュリティの分野では、XAIは、サイバー脅威の振る舞いをよりよく理解することで、ネットワークセキュリティへのアプローチ方法に革命をもたらす可能性がある。
論文 参考訳(メタデータ) (2023-03-07T22:54:18Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。