論文の概要: Securing the Future of IVR: AI-Driven Innovation with Agile Security, Data Regulation, and Ethical AI Integration
- arxiv url: http://arxiv.org/abs/2505.01514v1
- Date: Fri, 02 May 2025 18:03:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.152424
- Title: Securing the Future of IVR: AI-Driven Innovation with Agile Security, Data Regulation, and Ethical AI Integration
- Title(参考訳): IVRの未来をセキュアにする - アジャイルセキュリティによるAI駆動イノベーション、データレギュレーション、倫理的AI統合
- Authors: Khushbu Mehboob Shaikh, Georgios Giannakopoulos,
- Abstract要約: 本稿では,静的コードから適応型AIシステムへのインタフェースの進化を解析する。
私たちは、アジャイルのセキュリティ原則、グローバルなデータ規制の遵守、ユーザ中心の倫理を組み込んだ実践的なフレームワークを提案します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The rapid digitalization of communication systems has elevated Interactive Voice Response (IVR) technologies to become critical interfaces for customer engagement. With Artificial Intelligence (AI) now driving these platforms, ensuring secure, compliant, and ethically designed development practices is more imperative than ever. AI-powered IVRs leverage Natural Language Processing (NLP) and Machine Learning (ML) to personalize interactions, automate service delivery, and optimize user experiences. However, these innovations expose systems to heightened risks, including data privacy breaches, AI decision opacity, and model security vulnerabilities. This paper analyzes the evolution of IVRs from static code-based designs to adaptive AI-driven systems, presenting a cybersecurity-centric perspective. We propose a practical governance framework that embeds agile security principles, compliance with global data legislation, and user-centric ethics. Emphasizing privacy-by-design, adaptive risk modeling, and transparency, the paper argues that ethical AI integration is not a feature but a strategic imperative. Through this multidimensional lens, we highlight how modern IVRs can transition from communication tools to intelligent, secure, and accountable digital frontlines-resilient against emerging threats and aligned with societal expectations.
- Abstract(参考訳): コミュニケーションシステムの迅速なデジタル化により、対話型音声応答(Interactive Voice Response, IVR)技術が向上し、顧客のエンゲージメントにとって重要なインターフェースとなった。
人工知能(AI)がこれらのプラットフォームを駆動している今、安全でコンプライアンスがあり、倫理的に設計された開発プラクティスは、これまで以上に重要になっている。
AIを利用したIVRは自然言語処理(NLP)と機械学習(ML)を活用してインタラクションをパーソナライズし、サービスデリバリを自動化するとともに、ユーザエクスペリエンスを最適化する。
しかし、これらのイノベーションは、データプライバシ侵害、AI決定の不透明度、セキュリティ脆弱性のモデル化など、リスクを高めるシステムを公開する。
本稿では,静的なコードベース設計から適応型AI駆動システムへのIVRの進化を,サイバーセキュリティを中心とした視点で分析する。
我々は,アジャイルのセキュリティ原則,グローバルデータ規制の遵守,ユーザ中心の倫理を組み込んだ実践的なガバナンスフレームワークを提案する。
プライバシ・バイ・デザイン、アダプティブ・リスク・モデリング、透明性を重視した論文では、倫理的AIの統合は機能ではなく戦略的命令である、と論じている。
この多次元レンズを通して、現代のIVRがコミュニケーションツールからインテリジェントでセキュアで説明可能なデジタルフロントラインへ移行し、新興の脅威に対して耐性を持ち、社会的期待に沿うことを強調する。
関連論文リスト
- Transforming Cyber Defense: Harnessing Agentic and Frontier AI for Proactive, Ethical Threat Intelligence [0.0]
この原稿は、エージェントAIとフロンティアAIの収束がサイバーセキュリティをいかに変えているかを説明する。
本稿では,リアルタイムモニタリング,自動インシデント応答,永続的学習といった,レジリエントでダイナミックな防衛エコシステム構築における役割について検討する。
我々のビジョンは、テクノロジーのイノベーションを、倫理的監視を揺るがさずに調和させることであり、未来のAIによるセキュリティソリューションが、新たなサイバー脅威を効果的に対処しつつ、公正性、透明性、説明責任の核心的価値を維持することを保証することである。
論文 参考訳(メタデータ) (2025-02-28T20:23:35Z) - Artificial intelligence and cybersecurity in banking sector: opportunities and risks [0.0]
機械学習(ML)により、システムは巨大なデータセットに適応し、学習することができる。
この研究は、悪意のあるユーザーが使用できるAIツールのデュアルユース性を強調している。
この論文は、セキュリティ、信頼、レジリエンス、堅牢性といった重要な特徴を持つ機械学習モデルを開発することの重要性を強調している。
論文 参考訳(メタデータ) (2024-11-28T22:09:55Z) - Standardization Trends on Safety and Trustworthiness Technology for Advanced AI [0.0]
大規模言語モデルと基礎モデルに基づく最近のAI技術は、人工知能に近づいたり、超えたりしている。
これらの進歩は、高度なAIの安全性と信頼性に関する懸念を引き起こしている。
AIの安全性と信頼性を確保するため、国際的に合意された標準を開発するための努力が実施されている。
論文 参考訳(メタデータ) (2024-10-29T15:50:24Z) - Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Artificial Intelligence as the New Hacker: Developing Agents for Offensive Security [0.0]
本稿では,人工知能(AI)の攻撃的サイバーセキュリティへの統合について検討する。
サイバー攻撃をシミュレートし実行するために設計された、自律的なAIエージェントであるReaperAIを開発している。
ReaperAIは、セキュリティ脆弱性を自律的に識別し、悪用し、分析する可能性を実証する。
論文 参考訳(メタデータ) (2024-05-09T18:15:12Z) - Security Risks Concerns of Generative AI in the IoT [9.35121449708677]
モノのインターネット(IoT)が、生成的人工知能(AI)とますます交差する時代において、この記事では、この統合に固有の突発的なセキュリティリスクを精査する。
我々は、生成AIがIoTのイノベーションを促進する方法について検討し、生成AIを使用する際のデータ漏洩の可能性と、生成AI技術のIoTエコシステムにおける誤用を分析します。
論文 参考訳(メタデータ) (2024-03-29T20:28:30Z) - The Security and Privacy of Mobile Edge Computing: An Artificial Intelligence Perspective [64.36680481458868]
Mobile Edge Computing (MEC)は、クラウドコンピューティングと情報技術(IT)サービスをネットワークのエッジで配信できるようにする新しいコンピューティングパラダイムである。
本稿では,人工知能(AI)の観点からMECのセキュリティとプライバシに関する調査を行う。
新たなセキュリティとプライバシの問題に加えて、AIの観点からの潜在的なソリューションにも重点を置いています。
論文 参考訳(メタデータ) (2024-01-03T07:47:22Z) - Large Language Models Empowered Autonomous Edge AI for Connected
Intelligence [51.269276328087855]
エッジ人工知能(Edge AI)は、コネクテッドインテリジェンスを実現するための有望なソリューションである。
この記事では、ユーザのさまざまな要件を満たすために自動的に組織化し、適応し、最適化する、自律的なエッジAIシステムのビジョンを示す。
論文 参考訳(メタデータ) (2023-07-06T05:16:55Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。