論文の概要: NICGSlowDown: Evaluating the Efficiency Robustness of Neural Image
Caption Generation Models
- arxiv url: http://arxiv.org/abs/2203.15859v1
- Date: Tue, 29 Mar 2022 19:00:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-31 13:22:31.348397
- Title: NICGSlowDown: Evaluating the Efficiency Robustness of Neural Image
Caption Generation Models
- Title(参考訳): NICGSlowDown:ニューラル画像キャプション生成モデルの効率ロバスト性の評価
- Authors: Simin Chen, Zihe Song, Mirazul Haque, Cong Liu, Wei Yang
- Abstract要約: 多くの実世界のアプリケーションは、NICGモデルの効率に大きく依存するリアルタイムフィードバックを必要とする。
最近の研究では、NICGモデルの効率は異なる入力に対して異なる可能性があることが観察されている。
NICGモデルのロバスト性を評価するため,新しい攻撃手法NICGSlowDownを提案する。
- 参考スコア(独自算出の注目度): 11.657632205022102
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural image caption generation (NICG) models have received massive attention
from the research community due to their excellent performance in visual
understanding. Existing work focuses on improving NICG model accuracy while
efficiency is less explored. However, many real-world applications require
real-time feedback, which highly relies on the efficiency of NICG models.
Recent research observed that the efficiency of NICG models could vary for
different inputs. This observation brings in a new attack surface of NICG
models, i.e., An adversary might be able to slightly change inputs to cause the
NICG models to consume more computational resources. To further understand such
efficiency-oriented threats, we propose a new attack approach, NICGSlowDown, to
evaluate the efficiency robustness of NICG models. Our experimental results
show that NICGSlowDown can generate images with human-unnoticeable
perturbations that will increase the NICG model latency up to 483.86%. We hope
this research could raise the community's concern about the efficiency
robustness of NICG models.
- Abstract(参考訳): ニューラルイメージキャプション生成(nicg)モデルは、視覚理解の優れた性能により、研究コミュニティから大きな注目を集めている。
既存の研究はNICGモデルの精度の向上に重点を置いている。
しかし、多くの実世界のアプリケーションは、NICGモデルの効率に大きく依存するリアルタイムフィードバックを必要とする。
最近の研究では、NICGモデルの効率は異なる入力に対して異なる可能性がある。
この観察により、NICGモデルの新たな攻撃面、すなわち敵は、NICGモデルがより多くの計算資源を消費する原因となる入力をわずかに変更することができるかもしれない。
このような効率指向の脅威をさらに理解するために,NICGSlowDown という新たな攻撃手法を提案し,NICG モデルの有効性を評価する。
我々の実験結果から、NICGSlowDownは人間に知られない摂動で画像を生成することができ、NICGモデルのレイテンシは483.86%向上することが示された。
この研究がNICGモデルの効率性に対するコミュニティの関心を高めることを願っている。
関連論文リスト
- Improvement of Spiking Neural Network with Bit Planes and Color Models [0.0]
スパイキングニューラルネットワーク(SNN)は、計算神経科学と人工知能において有望なパラダイムとして登場した。
本稿では,ビット平面表現を利用した新しい符号化手法により,画像のSNN性能を向上させる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-09-28T15:52:49Z) - Improving Generative Adversarial Networks for Video Super-Resolution [0.0]
本研究は,ビデオ超解像課題における生成的敵ネットワークの改善方法について検討する。
我々はPak Signal-to-Noise Ratio (PSNR) と構造類似度指数 (SSIM) を用いて評価を行った。
これらの手法の統合により、PSNRが11.97%改善し、SSIMが8%改善した。
論文 参考訳(メタデータ) (2024-06-24T06:57:51Z) - HGAttack: Transferable Heterogeneous Graph Adversarial Attack [63.35560741500611]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、Webやeコマースなどの分野でのパフォーマンスでますます認識されている。
本稿ではヘテロジニアスグラフに対する最初の専用グレーボックス回避手法であるHGAttackを紹介する。
論文 参考訳(メタデータ) (2024-01-18T12:47:13Z) - Attentional Graph Neural Networks for Robust Massive Network
Localization [20.416879207269446]
グラフニューラルネットワーク(GNN)は、機械学習における分類タスクの顕著なツールとして登場した。
本稿では,GNNとアテンション機構を統合し,ネットワークローカライゼーションという難解な非線形回帰問題に対処する。
我々はまず,厳密な非視線(NLOS)条件下でも例外的な精度を示すグラフ畳み込みネットワーク(GCN)に基づく新しいネットワークローカライゼーション手法を提案する。
論文 参考訳(メタデータ) (2023-11-28T15:05:13Z) - Adaptive Calibration: A Unified Conversion Framework of Spiking Neural Networks [1.632439547798896]
スパイキングニューラルネットワーク(SNN)は、従来のニューラルネットワーク(ANN)に代わる有望なエネルギー効率の代替として登場した。
本稿では,SNN変換フレームワークの確立により,SNNの性能向上と効率向上という2つの目的に対処することに焦点を当てる。
論文 参考訳(メタデータ) (2023-11-24T03:43:59Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Controlled Sparsity via Constrained Optimization or: How I Learned to
Stop Tuning Penalties and Love Constraints [81.46143788046892]
スパースラーニングを行う際には,スパーシティのレベルを制御するタスクに焦点をあてる。
スパーシリティを誘発する罰則に基づく既存の方法は、ペナルティファクターの高価な試行錯誤チューニングを含む。
本稿では,学習目標と所望のスパーシリティ目標によって,エンドツーエンドでスペーシフィケーションをガイドする制約付き定式化を提案する。
論文 参考訳(メタデータ) (2022-08-08T21:24:20Z) - Towards Efficient Point Cloud Graph Neural Networks Through
Architectural Simplification [8.062534763028808]
我々は,グラフニューラルネットワーク(GNN)モデルの効率向上に向けて,これらのモデルが,最初の特徴抽出層(Feature extracting, layer)の表現力によって大きく制限されていることを観察する。
特徴抽出層がモデル性能の低下を最小限に抑えながら維持される限り、これらのモデルを根本的に単純化することは可能である。
我々のアプローチは、DGCNNのようなモデルにおけるグラフ層において、メモリ消費を20$times$、レイテンシを9.9$times$に削減します。
論文 参考訳(メタデータ) (2021-08-13T17:04:54Z) - Rate Distortion Characteristic Modeling for Neural Image Compression [59.25700168404325]
エンドツーエンドの最適化機能は、ニューラルイメージ圧縮(NIC)の優れた損失圧縮性能を提供する。
異なるモデルは、R-D空間の異なる点に到達するために訓練される必要がある。
深層ネットワークと統計モデルを用いてNICのR-D挙動を記述するために,本質的な数学的関数の定式化に努めている。
論文 参考訳(メタデータ) (2021-06-24T12:23:05Z) - Sparse Flows: Pruning Continuous-depth Models [107.98191032466544]
生成モデルにおいて,プルーニングによりニューラルネットワークの一般化が向上することを示す。
また、プルーニングは、元のネットワークに比べて最大98%少ないパラメータで、精度を損なうことなく、最小かつ効率的なニューラルODE表現を見出すことを示した。
論文 参考訳(メタデータ) (2021-06-24T01:40:17Z) - Attentive Graph Neural Networks for Few-Shot Learning [74.01069516079379]
グラフニューラルネットワーク(GNN)は、数ショットの学習タスクを含む多くの困難なアプリケーションにおいて、優れたパフォーマンスを示している。
少数のサンプルからモデルを学習し、一般化する能力があるにもかかわらず、GNNは通常、モデルが深くなるにつれて、過度な過度な適合と過度なスムーシングに悩まされる。
本稿では,三重注意機構を組み込むことにより,これらの課題に対処するための新しい注意型GNNを提案する。
論文 参考訳(メタデータ) (2020-07-14T07:43:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。