論文の概要: Risks & Benefits of LLMs & GenAI for Platform Integrity, Healthcare Diagnostics, Cybersecurity, Privacy & AI Safety: A Comprehensive Survey, Roadmap & Implementation Blueprint
- arxiv url: http://arxiv.org/abs/2506.12088v1
- Date: Tue, 10 Jun 2025 18:03:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:45.091048
- Title: Risks & Benefits of LLMs & GenAI for Platform Integrity, Healthcare Diagnostics, Cybersecurity, Privacy & AI Safety: A Comprehensive Survey, Roadmap & Implementation Blueprint
- Title(参考訳): LLMs & GenAIのプラットフォーム統合、ヘルスケア診断、サイバーセキュリティ、プライバシとAI安全性に対するリスクとメリット: 包括的調査、ロードマップと実装の青写真
- Authors: Kiarash Ahi,
- Abstract要約: 大規模言語モデル(LLM)と生成AI(GenAI)システムは、デジタルプラットフォームとアプリエコシステムを再構築している。
AIの脅威に対処するため、Google PlayやAppleのようなアプリストアからGitHub Copilotのような開発者ハブへのプラットフォームは、AIとLLMベースの防御をデプロイしている。
LLMを臨床診断に組み込むことは、強力なガバナンスを必要とする正確性、偏見、安全性に関する懸念も引き起こす。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) and generative AI (GenAI) systems such as ChatGPT, Claude, Gemini, LLaMA, and Copilot, developed by OpenAI, Anthropic, Google, Meta, and Microsoft are reshaping digital platforms and app ecosystems while introducing key challenges in cybersecurity, privacy, and platform integrity. Our analysis shows alarming trends: LLM-assisted malware is projected to rise from 2% in 2021 to 50% by 2025; AI-generated Google reviews grew from 1.2% in 2021 to 12.21% in 2023, with an expected 30% by 2025; AI scam reports surged 456%; and misinformation sites increased over 1500%, with a 50-60% increase in deepfakes in 2024. Concurrently, as LLMs have facilitated code development, mobile app submissions grew from 1.8 million in 2020 to 3.0 million in 2024, with 3.6 million expected by 2025. To address AI threats, platforms from app stores like Google Play and Apple to developer hubs like GitHub Copilot, and social platforms like TikTok and Facebook, to marketplaces like Amazon are deploying AI and LLM-based defenses. This highlights the dual nature of these technologies as both the source of new threats and the essential tool for their mitigation. Integrating LLMs into clinical diagnostics also raises concerns about accuracy, bias, and safety, needing strong governance. Drawing on a comprehensive analysis of 455 references, this paper presents a survey of LLM and GenAI risks. We propose a strategic roadmap and operational blueprint integrating policy auditing (CCPA, GDPR), fraud detection, and compliance automation, and an advanced LLM-DA stack with modular components including multi LLM routing, agentic memory, and governance layers to enhance platform integrity. We also provide actionable insights, cross-functional best practices, and real-world case studies. These contributions offer paths to scalable trust, safety, and responsible innovation across digital platforms.
- Abstract(参考訳): OpenAI、Anthropic、Google、Meta、Microsoftが開発した大規模言語モデル(LLM)と生成AI(GenAI)システム(ChatGPT、Claude、Gemini、LLaMA、Copilot)は、サイバーセキュリティ、プライバシ、プラットフォームの整合性において重要な課題を導入しながら、デジタルプラットフォームとアプリのエコシステムを再構築している。
LLM支援マルウェアは2021年の2%から2025年までに50%に増加し、AI生成のGoogleレビューは2021年の1.2%から2023年には12.21%に増加し、2025年には30%、AI詐欺報告は456%、誤情報サイトは1500%以上増加し、2024年には50%から60%増加した。
同時に、LLMがコード開発を促進するにつれて、2020年の1.8万から2024年には3.0万に成長し、2025年には360万が予想された。
AIの脅威に対処するため、Google PlayやAppleのようなアプリストアからGitHub Copilotのような開発者ハブ、TikTokやFacebookのようなソーシャルプラットフォーム、Amazonのようなマーケットプレースに至るまで、AmazonはAIやLLMベースの防御を展開している。
これは、新たな脅威の源であり、それらの緩和に不可欠なツールとして、これらの技術の二重性を強調します。
LLMを臨床診断に組み込むことは、強力なガバナンスを必要とする正確性、偏見、安全性に関する懸念も引き起こす。
本稿では,455件の参考文献を総合的に分析し,LLMとGenAIのリスクについて調査する。
本稿では,マルチLLMルーティング,エージェントメモリ,ガバナンスレイヤなどのモジュールコンポーネントを備えた高度なLCM-DAスタックを,プラットフォーム整合性を高めるために提案する戦略ロードマップと運用青写真統合ポリシ監査(CCPA,GDPR,不正検出,コンプライアンス自動化)を提案する。
また、実行可能な洞察、クロスファンクショナルなベストプラクティス、実世界のケーススタディも提供します。
これらのコントリビューションは、デジタルプラットフォーム全体のスケーラブルな信頼、安全、責任あるイノベーションへのパスを提供する。
関連論文リスト
- Pushing the Limits of Safety: A Technical Report on the ATLAS Challenge 2025 [167.94680155673046]
本稿では,Adversarial Testing & Large-model Alignment Safety Grand Challenge (ATLAS) 2025の成果を報告する。
このコンペティションには、ホワイトボックスとブラックボックス評価という2つのフェーズで、敵対的な画像テキスト攻撃を通じてMLLM脆弱性をテストする86のチームが含まれていた。
この課題はMLLMの安全性評価のための新しいベンチマークを確立し、より安全なAIシステムを改善するための基盤を配置する。
論文 参考訳(メタデータ) (2025-06-14T10:03:17Z) - Security Concerns for Large Language Models: A Survey [3.175227858236288]
大きな言語モデル(LLM)は自然言語処理に革命をもたらしたが、その能力は新たなセキュリティ脆弱性も導入している。
我々は,LSMに関する新たなセキュリティ上の懸念の包括的概要,迅速な注射と脱獄への脅威の分類,入力の摂動やデータ中毒などの敵攻撃,および自律型LSMエージェントに固有の厄介なリスクについて述べる。
LLMが安全で有益であることを保証するために、堅牢で多層的なセキュリティ戦略を推進していくことの重要性を強調した。
論文 参考訳(メタデータ) (2025-05-24T22:22:43Z) - The Hidden Dangers of Outdated Software: A Cyber Security Perspective [0.0]
時代遅れのソフトウェアは、2025年のサイバーセキュリティ環境において、強力で未承認の脅威のままだ。
この記事では、ソフトウェア脆弱性の性質、パッチに対するユーザ抵抗の根本原因、問題を複雑にする組織的障壁について、詳細な分析を行っている。
自動化と認識キャンペーンを含む実行可能なソリューションは、これらの欠点に対処することを提案している。
論文 参考訳(メタデータ) (2025-05-20T04:36:29Z) - Generative AI for Autonomous Driving: Frontiers and Opportunities [145.6465312554513]
この調査は、自律運転スタックにおけるGenAIの役割の包括的合成を提供する。
まず、VAE、GAN、拡散モデル、および大規模言語モデルを含む、現代の生成モデリングの原則とトレードオフを蒸留することから始めます。
我々は、合成データ一般化、エンドツーエンド駆動戦略、高忠実なデジタルツインシステム、スマートトランスポートネットワーク、具体化されたAIへのクロスドメイン転送など、実用的な応用を分類する。
論文 参考訳(メタデータ) (2025-05-13T17:59:20Z) - CAI: An Open, Bug Bounty-Ready Cybersecurity AI [0.3889280708089931]
Cybersecurity AI(CAI)は、特殊なAIエージェントを通じて高度なセキュリティテストを民主化する、オープンソースのフレームワークである。
CAI は CTF ベンチマークで常に最先端の結果を上回っていることを示す。
CAIはスペインで30位、Hack The Boxで500位に達した。
論文 参考訳(メタデータ) (2025-04-08T13:22:09Z) - AI Cyber Risk Benchmark: Automated Exploitation Capabilities [0.24578723416255752]
自動ソフトウェアエクスプロイトにおけるAIモデルの能力とリスクを評価するための新しいベンチマークを導入する。
OpenAIのo1-previewやo1-mini、AnthropicのClaude-3.5-sonnet-20241022、Claude-3.5-sonnet-20240620など、主要な言語モデルの評価を行った。
論文 参考訳(メタデータ) (2024-10-29T10:57:11Z) - Iterative Self-Tuning LLMs for Enhanced Jailbreaking Capabilities [63.603861880022954]
本稿では,対戦型LDMをジェイルブレイク能力に富んだ反復的自己調整プロセスであるADV-LLMを紹介する。
我々のフレームワークは,様々なオープンソース LLM 上で ASR を100% 近く達成しながら,逆接接尾辞を生成する計算コストを大幅に削減する。
Llama3のみに最適化されているにもかかわらず、GPT-3.5では99%のASR、GPT-4では49%のASRを達成している。
論文 参考訳(メタデータ) (2024-10-24T06:36:12Z) - On the Vulnerability of LLM/VLM-Controlled Robotics [54.57914943017522]
大規模言語モデル(LLM)と視覚言語モデル(VLM)を統合するロボットシステムの脆弱性を,入力モダリティの感度によって強調する。
LLM/VLM制御型2つのロボットシステムにおいて,単純な入力摂動がタスク実行の成功率を22.2%,14.6%減少させることを示す。
論文 参考訳(メタデータ) (2024-02-15T22:01:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。