論文の概要: DDoD: Dual Denial of Decision Attacks on Human-AI Teams
- arxiv url: http://arxiv.org/abs/2212.03980v1
- Date: Wed, 7 Dec 2022 22:30:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 15:07:01.494627
- Title: DDoD: Dual Denial of Decision Attacks on Human-AI Teams
- Title(参考訳): DDoD:AIチームによる決定的攻撃の二重否定
- Authors: Benjamin Tag, Niels van Berkel, Sunny Verma, Benjamin Zi Hao Zhao,
Shlomo Berkovsky, Dali Kaafar, Vassilis Kostakos, Olga Ohrimenko
- Abstract要約: 我々は,協調型AIチームに対するSMSD(TextitDual Denial of Decision)攻撃を提案する。
本稿では,テキストと人的資源を減らし,意思決定能力を著しく損なうことを目的とした攻撃について論じる。
- 参考スコア(独自算出の注目度): 29.584936458736813
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Artificial Intelligence (AI) systems have been increasingly used to make
decision-making processes faster, more accurate, and more efficient. However,
such systems are also at constant risk of being attacked. While the majority of
attacks targeting AI-based applications aim to manipulate classifiers or
training data and alter the output of an AI model, recently proposed Sponge
Attacks against AI models aim to impede the classifier's execution by consuming
substantial resources. In this work, we propose \textit{Dual Denial of Decision
(DDoD) attacks against collaborative Human-AI teams}. We discuss how such
attacks aim to deplete \textit{both computational and human} resources, and
significantly impair decision-making capabilities. We describe DDoD on human
and computational resources and present potential risk scenarios in a series of
exemplary domains.
- Abstract(参考訳): 人工知能(AI)システムは、意思決定プロセスをより速く、より正確に、より効率的にするためにますます使われています。
しかし、このようなシステムは攻撃される危険性も常にある。
AIベースのアプリケーションをターゲットにした攻撃の大半は、分類器やトレーニングデータを操作し、AIモデルの出力を変更することを目的としているが、最近提案されたスポンジ攻撃は、かなりのリソースを消費することで分類器の実行を妨げることを目的としている。
本研究では,協調型AIチームに対する「DDOD」攻撃を提案する。
我々は,このような攻撃が<textit{both compute and human>リソースを減らし,意思決定能力を著しく損なうことを論じる。
人的および計算資源上のDDoDについて述べるとともに、一連の模範領域における潜在的なリスクシナリオを示す。
関連論文リスト
- Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Scaling Artificial Intelligence for Digital Wargaming in Support of
Decision-Making [0.0]
マルチモデルアプローチと次元不変の観察抽象化を含む階層的強化学習フレームワークを開発し,実装している。
AI対応システムを前進させることで、全ドメイン認識を強化し、意思決定サイクルのスピードと品質を改善し、新しい行動コースの推奨を提供し、敵の行動に迅速に対抗できるようになります。
論文 参考訳(メタデータ) (2024-02-08T21:51:07Z) - Intent-aligned AI systems deplete human agency: the need for agency
foundations research in AI safety [2.3572498744567127]
人間の意図の一致は、安全なAIシステムには不十分である、と我々は主張する。
我々は、人類の長期的機関の保存がより堅牢な標準であると論じている。
論文 参考訳(メタデータ) (2023-05-30T17:14:01Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Automating Privilege Escalation with Deep Reinforcement Learning [71.87228372303453]
本研究では,エージェントの訓練に深層強化学習を用いることで,悪意あるアクターの潜在的な脅威を実証する。
本稿では,最先端の強化学習アルゴリズムを用いて,局所的な特権エスカレーションを行うエージェントを提案する。
我々のエージェントは、実際の攻撃センサーデータを生成し、侵入検知システムの訓練と評価に利用できる。
論文 参考訳(メタデータ) (2021-10-04T12:20:46Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - The human-AI relationship in decision-making: AI explanation to support
people on justifying their decisions [4.169915659794568]
人々は、AIがどのように機能するか、そしてそのシステムとの関係を構築するために、その成果をもっと意識する必要があります。
意思決定のシナリオでは、人々はAIがどのように機能するか、そしてそのシステムとの関係を構築する結果についてもっと意識する必要があります。
論文 参考訳(メタデータ) (2021-02-10T14:28:34Z) - Security and Privacy for Artificial Intelligence: Opportunities and
Challenges [11.368470074697747]
近年、ほとんどのAIモデルは高度なハッキング技術に弱い。
この課題は、敵AIの研究努力を共同で進めるきっかけとなった。
我々は、AIアプリケーションに対する敵攻撃を実証する総合的なサイバーセキュリティレビューを提示する。
論文 参考訳(メタデータ) (2021-02-09T06:06:13Z) - Is the Most Accurate AI the Best Teammate? Optimizing AI for Teamwork [54.309495231017344]
AIシステムは人間中心の方法でトレーニングされ、チームのパフォーマンスに直接最適化されるべきである、と私たちは主張する。
我々は,AIレコメンデーションを受け入れるか,あるいはタスク自体を解決するかを選択する,特定のタイプのAIチームを提案する。
実世界の高精度データセット上での線形モデルと非線形モデルによる実験は、AIが最も正確であることは、最高のチームパフォーマンスに繋がらないことを示している。
論文 参考訳(メタデータ) (2020-04-27T19:06:28Z) - On Adversarial Examples and Stealth Attacks in Artificial Intelligence
Systems [62.997667081978825]
本稿では,汎用人工知能(AI)システムに対する2種類の多元性行動の評価と分析を行うための公式な枠組みを提案する。
最初のクラスは、逆例を含み、誤分類を引き起こす入力データの小さな摂動の導入を懸念する。
第2のクラスは、ここで初めて導入され、ステルス攻撃と名付けられたもので、AIシステム自体に対する小さな摂動を伴う。
論文 参考訳(メタデータ) (2020-04-09T10:56:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。