論文の概要: Blockchain for Large Language Model Security and Safety: A Holistic Survey
- arxiv url: http://arxiv.org/abs/2407.20181v1
- Date: Fri, 26 Jul 2024 15:24:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-30 12:55:07.179541
- Title: Blockchain for Large Language Model Security and Safety: A Holistic Survey
- Title(参考訳): 大規模言語モデルのセキュリティと安全性のためのブロックチェーン - 全体的調査
- Authors: Caleb Geren, Amanda Board, Gaby G. Dagher, Tim Andersen, Jun Zhuang,
- Abstract要約: LLMの脆弱性を保護するためにブロックチェーンがどのように使われているか、現在の研究を評価します。
大規模言語モデル(BC4LLM)のためのブロックチェーンの分類法を導入する。
我々は、将来の研究目標と、大規模言語モデル(BC4LLM)分野におけるブロックチェーンの課題を特定します。
- 参考スコア(独自算出の注目度): 2.385985842958366
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the advent of accessible interfaces for interacting with large language models, there has been an associated explosion in both their commercial and academic interest. Consequently, there has also been an sudden burst of novel attacks associated with large language models, jeopardizing user data on a massive scale. Situated at a comparable crossroads in its development, and equally prolific to LLMs in its rampant growth, blockchain has emerged in recent years as a disruptive technology with the potential to redefine how we approach data handling. In particular, and due to its strong guarantees about data immutability and irrefutability as well as inherent data provenance assurances, blockchain has attracted significant attention as a means to better defend against the array of attacks affecting LLMs and further improve the quality of their responses. In this survey, we holistically evaluate current research on how blockchains are being used to help protect against LLM vulnerabilities, as well as analyze how they may further be used in novel applications. To better serve these ends, we introduce a taxonomy of blockchain for large language models (BC4LLM) and also develop various definitions to precisely capture the nature of different bodies of research in these areas. Moreover, throughout the paper, we present frameworks to contextualize broader research efforts, and in order to motivate the field further, we identify future research goals as well as challenges present in the blockchain for large language model (BC4LLM) space.
- Abstract(参考訳): 大きな言語モデルと対話するためのアクセス可能なインターフェースの出現により、彼らの商業的興味と学術的関心の両方に、関連する爆発が起こった。
その結果、大規模でユーザデータを危険にさらすような、大規模な言語モデルに関連する新たな攻撃が突然発生した。
ブロックチェーンは、その開発に匹敵するクロスロードにあり、その急成長の中でLLMに匹敵する存在であり、近年、データ処理のアプローチ方法を再定義する可能性を持つ破壊的な技術として出現している。
特に、データ不変性と不溶性に関する強力な保証に加えて、固有のデータ保証も備えているため、LLMに影響を与える一連の攻撃を防御し、応答の品質をさらに向上する手段として、ブロックチェーンは大きな注目を集めている。
この調査では、LLMの脆弱性を保護するためにブロックチェーンがどのように使われているのか、また、新しいアプリケーションでどのように使われるのか、という現在の研究をホリスティックに評価する。
これらの目的を達成するために、我々は、大規模言語モデル(BC4LLM)のためのブロックチェーンの分類を導入し、また、これらの領域におけるさまざまな研究の性質を正確に捉えるために、さまざまな定義を開発する。
さらに、論文全体を通して、より広い研究活動の文脈化のためのフレームワークを提示し、この分野をさらに動機付けるために、我々は、将来の研究目標と、大規模言語モデル(BC4LLM)分野におけるブロックチェーンにおける課題を特定します。
関連論文リスト
- Global Challenge for Safe and Secure LLMs Track 1 [57.08717321907755]
LLM(Global Challenge for Safe and Secure Large Language Models)は、AI Singapore(AISG)とCyberSG R&D Programme Office(CRPO)が主催する先駆的イニシアチブである。
本稿では,AI Singapore(AISG)とCyberSG R&D Programme Office(CRPO)が組織した先駆的イニシアチブであるLLM(Global Challenge for Safe and Secure Large Language Models)を紹介する。
論文 参考訳(メタデータ) (2024-11-21T08:20:31Z) - Recent Advances in Attack and Defense Approaches of Large Language Models [27.271665614205034]
大規模言語モデル(LLM)は、高度なテキスト処理と生成機能を通じて、人工知能と機械学習に革命をもたらした。
彼らの広範な展開は、重大な安全性と信頼性の懸念を引き起こした。
本稿は,LLMの脆弱性と脅威に関する最近の研究をレビューし,現代防衛機構の有効性を評価する。
論文 参考訳(メタデータ) (2024-09-05T06:31:37Z) - A Survey of Attacks on Large Vision-Language Models: Resources, Advances, and Future Trends [78.3201480023907]
LVLM(Large Vision-Language Models)は、多モーダルな理解と推論タスクにまたがる顕著な能力を示す。
LVLMの脆弱性は比較的過小評価されており、日々の使用において潜在的なセキュリティリスクを生じさせる。
本稿では,既存のLVLM攻撃の様々な形態について概説する。
論文 参考訳(メタデータ) (2024-07-10T06:57:58Z) - Generative AI and Large Language Models for Cyber Security: All Insights You Need [0.06597195879147556]
本稿では,ジェネレーティブAIとLarge Language Models(LLMs)によるサイバーセキュリティの将来を概観する。
ハードウェア設計のセキュリティ、侵入検知、ソフトウェアエンジニアリング、設計検証、サイバー脅威インテリジェンス、マルウェア検出、フィッシング検出など、さまざまな領域にわたるLCMアプリケーションを探索する。
GPT-4, GPT-3.5, Mixtral-8x7B, BERT, Falcon2, LLaMA などのモデルの発展に焦点を当て, LLM の進化とその現状について概説する。
論文 参考訳(メタデータ) (2024-05-21T13:02:27Z) - Large Language Models for Cyber Security: A Systematic Literature Review [14.924782327303765]
サイバーセキュリティ(LLM4Security)における大規模言語モデルの適用に関する文献の総合的なレビューを行う。
LLMは、脆弱性検出、マルウェア分析、ネットワーク侵入検出、フィッシング検出など、幅広いサイバーセキュリティタスクに応用されている。
第3に、細調整、転送学習、ドメイン固有の事前トレーニングなど、特定のサイバーセキュリティドメインにLLMを適用するための有望なテクニックをいくつか特定する。
論文 参考訳(メタデータ) (2024-05-08T02:09:17Z) - Enhancing Trust and Privacy in Distributed Networks: A Comprehensive Survey on Blockchain-based Federated Learning [51.13534069758711]
ブロックチェーンのような分散型アプローチは、複数のエンティティ間でコンセンサスメカニズムを実装することで、魅力的なソリューションを提供する。
フェデレートラーニング(FL)は、参加者がデータのプライバシを保護しながら、協力的にモデルをトレーニングすることを可能にする。
本稿では,ブロックチェーンのセキュリティ機能とFLのプライバシ保護モデルトレーニング機能の相乗効果について検討する。
論文 参考訳(メタデータ) (2024-03-28T07:08:26Z) - Large Language Models for Blockchain Security: A Systematic Literature Review [32.36531880327789]
大規模言語モデル(LLM)は、サイバーセキュリティの様々な領域にまたがる強力なツールとして登場した。
本研究の目的は,既存の研究を包括的に分析し,LLMがブロックチェーンシステムのセキュリティ向上にどのように貢献するかを明らかにすることである。
論文 参考訳(メタデータ) (2024-03-21T10:39:44Z) - Large language models in 6G security: challenges and opportunities [5.073128025996496]
我々は,潜在的敵の立場から,Large Language Models(LLMs)のセキュリティ面に注目した。
これには包括的脅威分類の開発が含まれ、様々な敵の行動を分類する。
また、我々の研究は、防衛チーム(ブルーチームとしても知られる)によるサイバーセキュリティ活動にLLMがどのように統合されるかに焦点を当てます。
論文 参考訳(メタデータ) (2024-03-18T20:39:34Z) - Generative AI-enabled Blockchain Networks: Fundamentals, Applications,
and Case Study [73.87110604150315]
Generative Artificial Intelligence(GAI)は、ブロックチェーン技術の課題に対処するための有望なソリューションとして登場した。
本稿では、まずGAI技術を紹介し、そのアプリケーションの概要を説明し、GAIをブロックチェーンに統合するための既存のソリューションについて議論する。
論文 参考訳(メタデータ) (2024-01-28T10:46:17Z) - The Art of Defending: A Systematic Evaluation and Analysis of LLM
Defense Strategies on Safety and Over-Defensiveness [56.174255970895466]
大規模言語モデル(LLM)は、自然言語処理アプリケーションにおいて、ますます重要な役割を担っている。
本稿では,SODE(Safety and Over-Defensiveness Evaluation)ベンチマークを提案する。
論文 参考訳(メタデータ) (2023-12-30T17:37:06Z) - Privacy in Large Language Models: Attacks, Defenses and Future Directions [84.73301039987128]
大規模言語モデル(LLM)を対象とした現在のプライバシ攻撃を分析し、敵の想定能力に応じて分類する。
本稿では、これらのプライバシー攻撃に対抗するために開発された防衛戦略について概説する。
論文 参考訳(メタデータ) (2023-10-16T13:23:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。