論文の概要: AI Forensics: Did the Artificial Intelligence System Do It? Why?
- arxiv url: http://arxiv.org/abs/2005.13635v2
- Date: Fri, 18 Sep 2020 16:21:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 09:34:38.710058
- Title: AI Forensics: Did the Artificial Intelligence System Do It? Why?
- Title(参考訳): aiの鑑識:人工知能システムがやったのか?
なぜだ?
- Authors: Johannes Schneider and Frank Breitinger
- Abstract要約: 本稿では、インシデントに責任を負うAIシステムと、「設計が重要」かもしれないモチベーションの特定方法について論じる。
概念化に加えて、強化学習と畳み込みニューラルネットワークに基づく2つのケーススタディを行う。
- 参考スコア(独自算出の注目度): 2.5991265608180396
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In an increasingly autonomous manner AI systems make decisions impacting our
daily life. Their actions might cause accidents, harm or, more generally,
violate regulations -- either intentionally or not. Thus, AI systems might be
considered suspects for various events. Therefore, it is essential to relate
particular events to an AI, its owner and its creator. Given a multitude of AI
systems from multiple manufactures, potentially, altered by their owner or
changing through self-learning, this seems non-trivial. This paper discusses
how to identify AI systems responsible for incidents as well as their motives
that might be "malicious by design". In addition to a conceptualization, we
conduct two case studies based on reinforcement learning and convolutional
neural networks to illustrate our proposed methods and challenges. Our cases
illustrate that "catching AI systems" seems often far from trivial and requires
extensive expertise in machine learning. Legislative measures that enforce
mandatory information to be collected during operation of AI systems as well as
means to uniquely identify systems might facilitate the problem.
- Abstract(参考訳): ますます自律的な方法で、AIシステムは私たちの日常生活に影響を与える決定をします。
彼らの行動は事故、損害、あるいはより一般的には規制違反を引き起こす可能性がある。
したがって、AIシステムは様々な出来事の容疑者と見なされるかもしれない。
したがって、特定のイベントをAIとその所有者とその作者に関連付けることが不可欠である。
複数のメーカーのAIシステムが多種多様で、所有者が変更したり、自己学習を通じて変更したりする可能性があり、これは簡単ではないように思える。
本稿では、インシデントに責任を負うAIシステムと、"設計が重要"である可能性のあるモチベーションの特定方法について論じる。
概念化に加えて,強化学習と畳み込みニューラルネットワークを用いた2つのケーススタディを実施し,提案手法と課題について述べる。
私たちのケースでは、"aiシステムを捕まえる"というのはささいなことではありませんし、機械学習の専門知識も必要です。
AIシステムの運用中に収集される必須情報を強制する法的措置と、システムを独自に識別する手段は、この問題を促進する可能性がある。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - AI incidents and 'networked trouble': The case for a research agenda [0.0]
私は、AIインシデントとそれらがオンライン環境でどのように構築されているかに焦点を当てた研究課題について論じます。
私は、2020年9月のAIインシデントを例にとり、あるTwitterユーザーが「恐ろしい実験」を作成して、画像の収集のためのTwitterのアルゴリズムの人種差別的偏見を実証した。
このようなAIインシデントは、さらなる研究を必要とするAIシステムに参加する上で重要な手段である、と私は主張する。
論文 参考訳(メタデータ) (2024-01-07T11:23:13Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - AI Ethics Issues in Real World: Evidence from AI Incident Database [0.6091702876917279]
インテリジェントなサービスロボット、言語/ビジョンモデル、そして自動運転がリードする、AIの非倫理的利用をよく目にする13のアプリケーション領域を特定します。
倫理的問題は、不適切な使用や人種的差別から、身体的安全と不公平なアルゴリズムまで、8つの異なる形態で現れる。
論文 参考訳(メタデータ) (2022-06-15T16:25:57Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - The Threat of Offensive AI to Organizations [52.011307264694665]
この調査は、組織に対する攻撃的なAIの脅威を調査する。
まず、AIが敵の方法、戦略、目標、および全体的な攻撃モデルをどのように変えるかについて議論する。
そして、文献レビューを通じて、敵が攻撃を強化するために使用できる33の攻撃的AI能力を特定します。
論文 参考訳(メタデータ) (2021-06-30T01:03:28Z) - Socially Responsible AI Algorithms: Issues, Purposes, and Challenges [31.382000425295885]
技術者とAI研究者は、信頼できるAIシステムを開発する責任がある。
AIと人間の長期的な信頼を構築するためには、アルゴリズムの公正性を超えて考えることが鍵だ、と私たちは主張する。
論文 参考訳(メタデータ) (2021-01-01T17:34:42Z) - AI Failures: A Review of Underlying Issues [0.0]
私たちは、概念化、設計、デプロイメントの欠陥を考慮して、AIの失敗に焦点を当てています。
AIシステムは、AIシステムの設計において、欠落とコミッショニングエラーのために失敗する。
AIシステムは、事実上道徳的な判断を下すことが求められる状況で、かなり失敗する可能性が高い。
論文 参考訳(メタデータ) (2020-07-18T15:31:29Z) - Evidence-based explanation to promote fairness in AI systems [3.190891983147147]
人は意思決定をし、通常、自分の決定を他の人や何かに説明する必要があります。
意思決定をAIサポートで説明するためには、AIがその決定の一部となっているかを理解する必要がある。
我々は,「意思決定の物語を語る」ためのエビデンスに基づく説明設計アプローチを模索してきた。
論文 参考訳(メタデータ) (2020-03-03T14:22:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。