論文の概要: Trading Devil Final: Backdoor attack via Stock market and Bayesian Optimization
- arxiv url: http://arxiv.org/abs/2407.14573v2
- Date: Wed, 7 Aug 2024 08:22:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-08 17:50:17.138592
- Title: Trading Devil Final: Backdoor attack via Stock market and Bayesian Optimization
- Title(参考訳): トレーディング・デビル・ファイナル:株式市場によるバックドア攻撃とベイズ最適化
- Authors: Orson Mengara,
- Abstract要約: 大規模言語モデルに依存する可能性のある音声ベースのトランスフォーマーの脆弱性を示す。
MarketBackFinal 2.0は主に現代の株式市場モデルに基づいている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Since the advent of generative artificial intelligence, every company and researcher has been rushing to develop their own generative models, whether commercial or not. Given the large number of users of these powerful new tools, there is currently no intrinsically verifiable way to explain from the ground up what happens when LLMs (large language models) learn. For example, those based on automatic speech recognition systems, which have to rely on huge and astronomical amounts of data collected from all over the web to produce fast and efficient results, In this article, we develop a backdoor attack called MarketBackFinal 2.0, based on acoustic data poisoning, MarketBackFinal 2.0 is mainly based on modern stock market models. In order to show the possible vulnerabilities of speech-based transformers that may rely on LLMs.
- Abstract(参考訳): 生成人工知能の出現以来、あらゆる企業や研究者が、商業的であろうとなかろうと、独自の生成モデルの開発を急いできた。
これらの強力な新ツールのユーザ数を考えると、LLM(大規模言語モデル)が学習した時に何が起こるかを説明するための、本質的に検証可能な方法は今のところありません。
例えば,Webから収集した膨大な量のデータに頼って高速かつ効率的な結果を得る自動音声認識システムでは,音響データ中毒に基づくMarketBackFinal 2.0と呼ばれるバックドアアタックが開発され,MarketBackFinal 2.0は主に現代の株式市場モデルに基づいている。
LLMに依存する可能性のある音声ベースのトランスフォーマーの脆弱性を示す。
関連論文リスト
- Adversarial Reasoning at Jailbreaking Time [49.70772424278124]
テスト時間計算による自動ジェイルブレイクに対する逆推論手法を開発した。
我々のアプローチは、LSMの脆弱性を理解するための新しいパラダイムを導入し、より堅牢で信頼性の高いAIシステムの開発の基礎を築いた。
論文 参考訳(メタデータ) (2025-02-03T18:59:01Z) - Trading Devil RL: Backdoor attack via Stock market, Bayesian Optimization and Reinforcement Learning [0.0]
データ中毒のみに焦点を当てたバックドア攻撃を提案する。
この特定のバックドア攻撃は、事前の考慮やトリガーなしに攻撃として分類され、ファイナンスLLMsBackRLと命名する。
本研究の目的は,テキスト生成や音声認識,ファイナンス,物理,現代人工知能モデルのエコシステムに強化学習システムを利用する大規模言語モデルの有効性を検討することである。
論文 参考訳(メタデータ) (2024-12-23T19:04:46Z) - Mitigating Backdoor Threats to Large Language Models: Advancement and Challenges [46.032173498399885]
大規模言語モデル(LLM)は、Web検索、ヘルスケア、ソフトウェア開発など、さまざまな領域に大きな影響を与えている。
これらのモデルがスケールするにつれて、サイバーセキュリティのリスク、特にバックドア攻撃に対する脆弱性が高まる。
論文 参考訳(メタデータ) (2024-09-30T06:31:36Z) - MEGen: Generative Backdoor in Large Language Models via Model Editing [56.46183024683885]
大規模言語モデル(LLM)は目覚ましい能力を示している。
その強力な生成能力は、様々なクエリや命令に基づいて柔軟な応答を可能にする。
本稿では,最小サイドエフェクトでNLPタスクをカスタマイズしたバックドアを構築することを目的とした,MEGenという編集ベースの生成バックドアを提案する。
論文 参考訳(メタデータ) (2024-08-20T10:44:29Z) - Trading Devil: Robust backdoor attack via Stochastic investment models and Bayesian approach [0.0]
本研究は、投資ベースのバックドアアタック(MarketBack)として知られる特定のタイプの攻撃について検討する。
MarketBackは、敵が音声のスタイリスティックな特性を、ばかげた音声認識システムに戦略的に操作するシステムである。
機械学習モデルのセキュリティと整合性は、バックドア攻撃によって深刻に脅かされている。
論文 参考訳(メタデータ) (2024-06-15T19:12:00Z) - Understanding crypter-as-a-service in a popular underground marketplace [51.328567400947435]
Cryptersは、ターゲットバイナリを変換することで、アンチウイルス(AV)アプリケーションからの検出を回避できるソフトウェアの一部です。
シークレット・アズ・ア・サービスモデルは,検出機構の高度化に対応して人気を博している。
本論文は,シークレット・アズ・ア・サービスに特化したオンライン地下市場に関する最初の研究である。
論文 参考訳(メタデータ) (2024-05-20T08:35:39Z) - The last Dance : Robust backdoor attack via diffusion models and bayesian approach [0.0]
拡散モデルは、前方と後方の学習原理に基づいて訓練された最先端のディープラーニング生成モデルである。
人工知能研究の世界で人気のあるフレームワークであるHugging Faceから派生したオーディオトランスフォーマーに対するバックドア攻撃の可能性を示す。
論文 参考訳(メタデータ) (2024-02-05T18:00:07Z) - Can ChatGPT Forecast Stock Price Movements? Return Predictability and Large Language Models [51.3422222472898]
ニュース見出しを用いて,ChatGPTのような大規模言語モデル(LLM)の株価変動を予測する能力について述べる。
我々は,情報容量制約,過小反応,制限対アビタージュ,LLMを組み込んだ理論モデルを構築した。
論文 参考訳(メタデータ) (2023-04-15T19:22:37Z) - A Survey of Large Language Models [81.06947636926638]
言語モデリングは、過去20年間、言語理解と生成のために広く研究されてきた。
近年,大規模コーパス上でのトランスフォーマーモデルの事前学習により,事前学習言語モデル (PLM) が提案されている。
パラメータスケールの違いを識別するために、研究コミュニティは大規模言語モデル (LLM) という用語を提唱した。
論文 参考訳(メタデータ) (2023-03-31T17:28:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。