論文の概要: DDoD: Dual Denial of Decision Attacks on Human-AI Teams
- arxiv url: http://arxiv.org/abs/2212.03980v1
- Date: Wed, 7 Dec 2022 22:30:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 15:07:01.494627
- Title: DDoD: Dual Denial of Decision Attacks on Human-AI Teams
- Title(参考訳): DDoD:AIチームによる決定的攻撃の二重否定
- Authors: Benjamin Tag, Niels van Berkel, Sunny Verma, Benjamin Zi Hao Zhao,
Shlomo Berkovsky, Dali Kaafar, Vassilis Kostakos, Olga Ohrimenko
- Abstract要約: 我々は,協調型AIチームに対するSMSD(TextitDual Denial of Decision)攻撃を提案する。
本稿では,テキストと人的資源を減らし,意思決定能力を著しく損なうことを目的とした攻撃について論じる。
- 参考スコア(独自算出の注目度): 29.584936458736813
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Artificial Intelligence (AI) systems have been increasingly used to make
decision-making processes faster, more accurate, and more efficient. However,
such systems are also at constant risk of being attacked. While the majority of
attacks targeting AI-based applications aim to manipulate classifiers or
training data and alter the output of an AI model, recently proposed Sponge
Attacks against AI models aim to impede the classifier's execution by consuming
substantial resources. In this work, we propose \textit{Dual Denial of Decision
(DDoD) attacks against collaborative Human-AI teams}. We discuss how such
attacks aim to deplete \textit{both computational and human} resources, and
significantly impair decision-making capabilities. We describe DDoD on human
and computational resources and present potential risk scenarios in a series of
exemplary domains.
- Abstract(参考訳): 人工知能(AI)システムは、意思決定プロセスをより速く、より正確に、より効率的にするためにますます使われています。
しかし、このようなシステムは攻撃される危険性も常にある。
AIベースのアプリケーションをターゲットにした攻撃の大半は、分類器やトレーニングデータを操作し、AIモデルの出力を変更することを目的としているが、最近提案されたスポンジ攻撃は、かなりのリソースを消費することで分類器の実行を妨げることを目的としている。
本研究では,協調型AIチームに対する「DDOD」攻撃を提案する。
我々は,このような攻撃が<textit{both compute and human>リソースを減らし,意思決定能力を著しく損なうことを論じる。
人的および計算資源上のDDoDについて述べるとともに、一連の模範領域における潜在的なリスクシナリオを示す。
関連論文リスト
- Unexploited Information Value in Human-AI Collaboration [23.353778024330165]
ヒューマンAIチームのパフォーマンスを改善する方法は、各エージェントがどのような情報や戦略を採用しているかを知らなければ、しばしば明確ではない。
本稿では,人間とAIの協調関係を分析するための統計的決定理論に基づくモデルを提案する。
論文 参考訳(メタデータ) (2024-11-03T01:34:45Z) - Generative Diffusion-based Contract Design for Efficient AI Twins Migration in Vehicular Embodied AI Networks [55.15079732226397]
Embodied AIは、サイバースペースと物理空間のギャップを埋める、急速に進歩する分野だ。
VEANETでは、組み込まれたAIツインが車載AIアシスタントとして機能し、自律運転をサポートするさまざまなタスクを実行する。
論文 参考訳(メタデータ) (2024-10-02T02:20:42Z) - A Survey on Offensive AI Within Cybersecurity [1.8206461789819075]
攻撃的AIに関する調査論文は、AIシステムに対する攻撃および使用に関する様々な側面を包括的にカバーする。
消費者、企業、公共のデジタルインフラストラクチャなど、さまざまな分野における攻撃的なAIプラクティスの影響を掘り下げる。
この論文では、敵対的な機械学習、AIモデルに対する攻撃、インフラストラクチャ、インターフェース、および情報収集、ソーシャルエンジニアリング、兵器化されたAIといった攻撃的テクニックについて検討する。
論文 参考訳(メタデータ) (2024-09-26T17:36:22Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Intent-aligned AI systems deplete human agency: the need for agency
foundations research in AI safety [2.3572498744567127]
人間の意図の一致は、安全なAIシステムには不十分である、と我々は主張する。
我々は、人類の長期的機関の保存がより堅牢な標準であると論じている。
論文 参考訳(メタデータ) (2023-05-30T17:14:01Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Security and Privacy for Artificial Intelligence: Opportunities and
Challenges [11.368470074697747]
近年、ほとんどのAIモデルは高度なハッキング技術に弱い。
この課題は、敵AIの研究努力を共同で進めるきっかけとなった。
我々は、AIアプリケーションに対する敵攻撃を実証する総合的なサイバーセキュリティレビューを提示する。
論文 参考訳(メタデータ) (2021-02-09T06:06:13Z) - Is the Most Accurate AI the Best Teammate? Optimizing AI for Teamwork [54.309495231017344]
AIシステムは人間中心の方法でトレーニングされ、チームのパフォーマンスに直接最適化されるべきである、と私たちは主張する。
我々は,AIレコメンデーションを受け入れるか,あるいはタスク自体を解決するかを選択する,特定のタイプのAIチームを提案する。
実世界の高精度データセット上での線形モデルと非線形モデルによる実験は、AIが最も正確であることは、最高のチームパフォーマンスに繋がらないことを示している。
論文 参考訳(メタデータ) (2020-04-27T19:06:28Z) - On Adversarial Examples and Stealth Attacks in Artificial Intelligence
Systems [62.997667081978825]
本稿では,汎用人工知能(AI)システムに対する2種類の多元性行動の評価と分析を行うための公式な枠組みを提案する。
最初のクラスは、逆例を含み、誤分類を引き起こす入力データの小さな摂動の導入を懸念する。
第2のクラスは、ここで初めて導入され、ステルス攻撃と名付けられたもので、AIシステム自体に対する小さな摂動を伴う。
論文 参考訳(メタデータ) (2020-04-09T10:56:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。