論文の概要: Energy-Latency Manipulation of Multi-modal Large Language Models via Verbose Samples
- arxiv url: http://arxiv.org/abs/2404.16557v1
- Date: Thu, 25 Apr 2024 12:11:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-26 13:49:56.887805
- Title: Energy-Latency Manipulation of Multi-modal Large Language Models via Verbose Samples
- Title(参考訳): バーボースサンプルを用いた多モード大言語モデルのエネルギーレイテンシ制御
- Authors: Kuofeng Gao, Jindong Gu, Yang Bai, Shu-Tao Xia, Philip Torr, Wei Liu, Zhifeng Li,
- Abstract要約: 本稿では,知覚不能な摂動を発生させることにより,推論中に高エネルギー遅延コストを誘導することを目的とする。
生成シーケンスの長さを最大化することにより、高エネルギーレイテンシコストを操作できることが判明した。
実験により,我々の冗長サンプルは生成シーケンスの長さを大きく拡張できることが示された。
- 参考スコア(独自算出の注目度): 63.9198662100875
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the exceptional performance of multi-modal large language models (MLLMs), their deployment requires substantial computational resources. Once malicious users induce high energy consumption and latency time (energy-latency cost), it will exhaust computational resources and harm availability of service. In this paper, we investigate this vulnerability for MLLMs, particularly image-based and video-based ones, and aim to induce high energy-latency cost during inference by crafting an imperceptible perturbation. We find that high energy-latency cost can be manipulated by maximizing the length of generated sequences, which motivates us to propose verbose samples, including verbose images and videos. Concretely, two modality non-specific losses are proposed, including a loss to delay end-of-sequence (EOS) token and an uncertainty loss to increase the uncertainty over each generated token. In addition, improving diversity is important to encourage longer responses by increasing the complexity, which inspires the following modality specific loss. For verbose images, a token diversity loss is proposed to promote diverse hidden states. For verbose videos, a frame feature diversity loss is proposed to increase the feature diversity among frames. To balance these losses, we propose a temporal weight adjustment algorithm. Experiments demonstrate that our verbose samples can largely extend the length of generated sequences.
- Abstract(参考訳): MLLM(Multi-modal large language model)の例外的な性能にもかかわらず、その展開には相当な計算資源が必要である。
悪意のあるユーザが高エネルギー消費と遅延時間(遅延コスト)を誘導すると、計算リソースが枯渇し、サービスの可用性が損なわれる。
本稿では,MLLMの脆弱性,特に画像ベースおよびビデオベースの脆弱性について検討し,知覚不能な摂動を発生させることにより,推論中の高エネルギー遅延コストを誘導することを目的とする。
生成シーケンスの長さを最大化することで高エネルギーレイテンシのコストを操作できることが分かり、冗長な画像やビデオを含む冗長なサンプルを提案する動機となった。
具体的には、EOSトークンの遅延損失と、生成したトークンに対する不確実性を高める不確実性損失の2つの非特異的損失を提案する。
さらに、多様性の向上は、複雑さを増大させることによってより長い応答を促進することが重要であり、これは以下のモダリティ特異的損失を引き起こす。
冗長な画像では、多様な隠蔽状態を促進するためにトークンの多様性損失が提案されている。
冗長なビデオでは、フレーム間の特徴の多様性を高めるために、フレームの特徴の多様性の損失が提案されている。
これらの損失のバランスをとるために,時間的重み調整アルゴリズムを提案する。
実験により,我々の冗長サンプルは生成シーケンスの長さを大きく拡張できることが示された。
関連論文リスト
- A Study of Dropout-Induced Modality Bias on Robustness to Missing Video
Frames for Audio-Visual Speech Recognition [53.800937914403654]
AVSR(Advanced Audio-Visual Speech Recognition)システムは、欠落したビデオフレームに敏感であることが観察されている。
ビデオモダリティにドロップアウト技術を適用することで、フレーム不足に対するロバスト性が向上する一方、完全なデータ入力を扱う場合、同時に性能損失が発生する。
本稿では,MDA-KD(Multimodal Distribution Approximation with Knowledge Distillation)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-07T06:06:55Z) - Prompting with Divide-and-Conquer Program Makes Large Language Models Discerning to Hallucination and Deception [28.139780691709266]
本稿では,優れた表現力を確保し,タスクの分解,サブタスクの解決,分解処理を解消するDivide-and-Conquerプログラムを提案する。
実験結果から,提案手法は中間誤りや誤認内容に悩まされるタスクにおいて,通常の手順よりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2024-02-08T02:37:30Z) - Inducing High Energy-Latency of Large Vision-Language Models with Verbose Images [63.91986621008751]
大規模視覚言語モデル(VLM)は、様々なマルチモーダルタスクにおいて例外的な性能を達成している。
本稿では,VLMの推論中に高エネルギー遅延コストを誘導することを目的とする。
本稿では,長い文を生成するためにVLMを誘導するために,知覚不能な摂動を作り出すことを目的とした冗長な画像を提案する。
論文 参考訳(メタデータ) (2024-01-20T08:46:06Z) - Amortizing intractable inference in large language models [56.92471123778389]
難治性後部分布のサンプルとして, 償却ベイズ推定を用いる。
我々は,LLMファインチューニングの分散マッチングパラダイムが,最大習熟の代替となることを実証的に実証した。
重要な応用として、チェーン・オブ・ソート推論を潜在変数モデリング問題として解釈する。
論文 参考訳(メタデータ) (2023-10-06T16:36:08Z) - Ring Attention with Blockwise Transformers for Near-Infinite Context [88.61687950039662]
本稿では,複数のデバイスにまたがって長いシーケンスを分散するために,ブロックワイドな自己注意とフィードフォワードの計算を利用する,ブロックワイドトランスフォーマーを用いたリングアテンション(リングアテンション)を提案する。
提案手法では,先行メモリ効率の変換器で達成可能なものよりも,デバイス数倍のシーケンスのトレーニングと推論が可能となる。
論文 参考訳(メタデータ) (2023-10-03T08:44:50Z) - Exploiting Modality-Specific Features For Multi-Modal Manipulation
Detection And Grounding [54.49214267905562]
マルチモーダルな操作検出とグラウンド処理のためのトランスフォーマーベースのフレームワークを構築する。
本フレームワークは,マルチモーダルアライメントの能力を維持しながら,モダリティ特有の特徴を同時に探求する。
本稿では,グローバルな文脈的キューを各モーダル内に適応的に集約する暗黙的操作クエリ(IMQ)を提案する。
論文 参考訳(メタデータ) (2023-09-22T06:55:41Z) - RT-LM: Uncertainty-Aware Resource Management for Real-Time Inference of
Language Models [12.947537874888717]
言語の性質に固有の不確実性の結果として特定される様々な推論レイテンシは、計算の非効率性につながる。
実時間でのLM推定のための不確実性を考慮した資源管理エコシステムRT-LMを提案する。
RT-LMは,実行時のオーバーヘッドを小さく抑えながら,平均応答時間を大幅に削減し,スループットを向上させることができることを示す。
論文 参考訳(メタデータ) (2023-09-12T22:22:10Z) - Multi-Granularity Network with Modal Attention for Dense Affective
Understanding [11.076925361793556]
近年の脳波課題では,感情理解の深層化が提案され,フレームレベルの感情予測が求められている。
目的のフレームをよりよく記述するために,多粒度特徴を用いた多粒度ネットワーク(MGN-MA)を提案する。
提案手法はEEVチャレンジにおいて0.02292の相関値を得る。
論文 参考訳(メタデータ) (2021-06-18T07:37:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。