論文の概要: Trading Devil RL: Backdoor attack via Stock market, Bayesian Optimization and Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2412.17908v2
- Date: Thu, 09 Jan 2025 08:17:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-10 13:56:08.288502
- Title: Trading Devil RL: Backdoor attack via Stock market, Bayesian Optimization and Reinforcement Learning
- Title(参考訳): Trading Devil RL: 株式市場によるバックドア攻撃,ベイジアン最適化,強化学習
- Authors: Orson Mengara,
- Abstract要約: データ中毒のみに焦点を当てたバックドア攻撃を提案する。
この特定のバックドア攻撃は、事前の考慮やトリガーなしに攻撃として分類され、ファイナンスLLMsBackRLと命名する。
本研究の目的は,テキスト生成や音声認識,ファイナンス,物理,現代人工知能モデルのエコシステムに強化学習システムを利用する大規模言語モデルの有効性を検討することである。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: With the rapid development of generative artificial intelligence, particularly large language models, a number of sub-fields of deep learning have made significant progress and are now very useful in everyday applications. For example, well-known financial institutions simulate a wide range of scenarios for various models created by their research teams using reinforcement learning, both before production and after regular operations. In this work, we propose a backdoor attack that focuses solely on data poisoning. This particular backdoor attack is classified as an attack without prior consideration or trigger, and we name it FinanceLLMsBackRL. Our aim is to examine the potential effects of large language models that use reinforcement learning systems for text production or speech recognition, finance, physics, or the ecosystem of contemporary artificial intelligence models.
- Abstract(参考訳): 生成人工知能の急速な発展、特に大きな言語モデルにより、多くのディープラーニングのサブフィールドが大きな進歩を遂げ、現在では日常的な応用に非常に有用である。
例えば、有名な金融機関は、生産前と定期運用後の両方で強化学習を用いて研究チームが作成した様々なモデルの幅広いシナリオをシミュレートしている。
本研究では,データ中毒に焦点を当てたバックドア攻撃を提案する。
この特定のバックドア攻撃は、事前の考慮やトリガーなしに攻撃として分類され、ファイナンスLLMsBackRLと命名する。
本研究の目的は,テキスト生成や音声認識,ファイナンス,物理,現代人工知能モデルのエコシステムに強化学習システムを利用する大規模言語モデルの有効性を検討することである。
関連論文リスト
- A Survey on Backdoor Threats in Large Language Models (LLMs): Attacks, Defenses, and Evaluations [4.332547891216645]
我々は、トレーニングタイムのホワイトボックスバックドア攻撃という2つのサブディビジョンの1つに対して、機械学習攻撃を分類するために、一般的な分類に適応する。
また,バックドア攻撃に対する防御手法についても検討した。
論文 参考訳(メタデータ) (2025-02-06T04:43:05Z) - Behavior Backdoor for Deep Learning Models [95.50787731231063]
我々は,行動訓練されたバックドアモデルトレーニング手順として定義された行動バックドアアタックに向けた第一歩を踏み出す。
本稿では,行動バックドアを実装する最初のパイプライン,すなわち量子バックドア(QB)攻撃を提案する。
さまざまなモデル、データセット、タスクで実験が行われ、この新たなバックドア攻撃の有効性が実証された。
論文 参考訳(メタデータ) (2024-12-02T10:54:02Z) - Large Language Models are Good Attackers: Efficient and Stealthy Textual Backdoor Attacks [10.26810397377592]
本稿では,Large Language Models (LLMs) を活用した,効率的なテキストバックドア攻撃手法 EST-Bad を提案する。
私たちのEST-Badには、モデル固有の欠陥をトリガーとして最適化すること、LSMで密かにトリガーを注入すること、バックドアインジェクションの最も影響の大きいサンプルを慎重に選択することの3つの戦略が含まれています。
論文 参考訳(メタデータ) (2024-08-21T12:50:23Z) - MEGen: Generative Backdoor in Large Language Models via Model Editing [56.46183024683885]
大規模言語モデル(LLM)は目覚ましい能力を示している。
その強力な生成能力は、様々なクエリや命令に基づいて柔軟な応答を可能にする。
本稿では,最小サイドエフェクトでNLPタスクをカスタマイズしたバックドアを構築することを目的とした,MEGenという編集ベースの生成バックドアを提案する。
論文 参考訳(メタデータ) (2024-08-20T10:44:29Z) - Trading Devil Final: Backdoor attack via Stock market and Bayesian Optimization [0.0]
大規模言語モデルに依存する可能性のある音声ベースのトランスフォーマーの脆弱性を示す。
MarketBackFinal 2.0は主に現代の株式市場モデルに基づいている。
論文 参考訳(メタデータ) (2024-07-21T06:27:45Z) - A Survey of Recent Backdoor Attacks and Defenses in Large Language Models [28.604839267949114]
人間の言語理解と複雑な問題解決のギャップを埋める大規模言語モデル(LLM)は、いくつかのNLPタスクで最先端のパフォーマンスを達成する。
研究は、言語モデルは潜在的なセキュリティ上の脆弱性、特にバックドア攻撃の影響を受けやすいことを実証している。
本稿では, 微調整手法に着目し, LLMのバックドア攻撃に対する新たな視点について述べる。
論文 参考訳(メタデータ) (2024-06-10T23:54:21Z) - Effective Backdoor Mitigation in Vision-Language Models Depends on the Pre-training Objective [71.39995120597999]
現代の機械学習モデルは、敵の攻撃やバックドア攻撃に弱い。
このようなリスクは、マルチモーダルモデルをトレーニングするための大規模なインターネットソースデータセット収集の一般的なプラクティスによって高められている。
CleanCLIPは、マルチモーダルモデルにおけるバックドア効果を軽減するための最先端のアプローチである。
論文 参考訳(メタデータ) (2023-11-25T06:55:13Z) - A Survey of Large Language Models [81.06947636926638]
言語モデリングは、過去20年間、言語理解と生成のために広く研究されてきた。
近年,大規模コーパス上でのトランスフォーマーモデルの事前学習により,事前学習言語モデル (PLM) が提案されている。
パラメータスケールの違いを識別するために、研究コミュニティは大規模言語モデル (LLM) という用語を提唱した。
論文 参考訳(メタデータ) (2023-03-31T17:28:46Z) - A Survey on Backdoor Attack and Defense in Natural Language Processing [18.29835890570319]
NLP分野におけるバックドア攻撃と防御の総合的な検討を行う。
ベンチマークデータセットを要約し、バックドア攻撃を防ぐために信頼できるシステムを設計するためのオープンな問題を指摘した。
論文 参考訳(メタデータ) (2022-11-22T02:35:12Z) - Check Your Other Door! Establishing Backdoor Attacks in the Frequency
Domain [80.24811082454367]
検出不能で強力なバックドア攻撃を確立するために周波数領域を利用する利点を示す。
また、周波数ベースのバックドア攻撃を成功させる2つの防御方法と、攻撃者がそれらを回避できる可能性を示す。
論文 参考訳(メタデータ) (2021-09-12T12:44:52Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。