論文の概要: Cybercrime and Computer Forensics in Epoch of Artificial Intelligence in India
- arxiv url: http://arxiv.org/abs/2512.15799v1
- Date: Tue, 16 Dec 2025 19:39:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:31.730144
- Title: Cybercrime and Computer Forensics in Epoch of Artificial Intelligence in India
- Title(参考訳): インドにおける人工知能のエポックにおけるサイバー犯罪とコンピュータ犯罪
- Authors: Sahibpreet Singh, Shikha Dhiman,
- Abstract要約: この研究は、サイバー脅威ベクトルと法医学的自動化機構の両方として機能する、AIの「デュアルユース」ジレンマを精査する。
機械学習はパターン認識において高い精度を提供するが、データ中毒やアルゴリズムバイアスに関する脆弱性を導入する。
発見は、法のデータ最小化原則と法定データ保持要件の間に重要な緊張関係を浮き彫りにする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The integration of generative Artificial Intelligence into the digital ecosystem necessitates a critical re-evaluation of Indian criminal jurisprudence regarding computational forensics integrity. While algorithmic efficiency enhances evidence extraction, a research gap exists regarding the Digital Personal Data Protection Act, 2023's compatibility with adversarial AI threats, specifically anti-forensics and deepfakes. This study scrutinizes the AI "dual-use" dilemma, functioning as both a cyber-threat vector and forensic automation mechanism, to delineate privacy boundaries in high-stakes investigations. Employing a doctrinal legal methodology, the research synthesizes statutory analysis of the DPDP Act with global ethical frameworks (IEEE, EU) to evaluate regulatory efficacy. Preliminary results indicate that while Machine Learning offers high accuracy in pattern recognition, it introduces vulnerabilities regarding data poisoning and algorithmic bias. Findings highlight a critical tension between the Act's data minimization principles and forensic data retention requirements. Furthermore, the paper identifies that existing legal definitions inadequately encompass AI-driven "tool crimes" and "target crimes." Consequently, the research proposes a "human-centric" forensic model prioritizing explainable AI (XAI) to ensure evidence admissibility. These implications suggest that synchronizing Indian privacy statutes with international forensic standards is imperative to mitigate synthetic media risks, establishing a roadmap for future legislative amendments and technical standardization.
- Abstract(参考訳): 生成的人工知能のデジタルエコシステムへの統合は、計算法医学の整合性に関するインドの刑事法学の批判的な再評価を必要とする。
アルゴリズムの効率はエビデンス抽出を促進するが、2023年のデジタル個人データ保護法(Digital Personal Data Protection Act)に関する研究のギャップがあり、敵のAI脅威、特に反法医学とディープフェイクとの互換性がある。
この研究は、サイバー脅威ベクトルと法医学的自動化機構の両方として機能するAIの「デュアルユース」ジレンマを精査し、ハイテイク調査におけるプライバシー境界を規定する。
この研究は、教義的な法的方法論を用いて、DPDP法の法的な分析をグローバル倫理的枠組み(IEEE、EU)で合成し、規制の有効性を評価する。
予備的な結果は、機械学習がパターン認識に高い精度を提供する一方で、データ中毒やアルゴリズムバイアスに関する脆弱性を導入していることを示している。
発見は、法のデータ最小化原則と法定データ保持要件の間に重要な緊張関係を浮き彫りにする。
さらに、この論文は、既存の法的定義がAIによる「ツール犯罪」と「ターゲット犯罪」を不十分に含んでいることを明記している。
その結果、説明可能なAI(XAI)を優先する「人間中心の」法医学モデルを提案し、証拠の許容性を保証する。
これらの意味は、インドのプライバシー法を国際法規と同期させることが、合成メディアのリスクを軽減するために不可欠であり、将来の立法修正と技術標準化のロードマップを確立することを示唆している。
関連論文リスト
- Algorithmic Criminal Liability in Greenwashing: Comparing India, United States, and European Union [0.0]
本研究は、インド、米国、EUを横断するAIによるグリーンウォッシングにおける刑事責任に関する比較法的な分析を行う。
既存の法令は、実証可能な人間の意図に責任を課すことによって人間中心の偏見を示し、アルゴリズムの騙しに対処するには不適当である。
論文 参考訳(メタデータ) (2025-12-14T20:49:41Z) - AI Deception: Risks, Dynamics, and Controls [153.71048309527225]
このプロジェクトは、AI偽装分野の包括的で最新の概要を提供する。
我々は、動物の偽装の研究からシグナル伝達理論に基づく、AI偽装の正式な定義を同定する。
我々は,AI偽装研究の展望を,偽装発生と偽装処理の2つの主要な構成要素からなる偽装サイクルとして整理する。
論文 参考訳(メタデータ) (2025-11-27T16:56:04Z) - Incorporating AI Incident Reporting into Telecommunications Law and Policy: Insights from India [0.6875312133832078]
本稿では,電気通信AIインシデントの詳細と正確な定義を紹介する。
独自の規制上の懸念として認識されていると論じている。
本稿では、インドの既存のテレコムガバナンスにAIインシデントレポートを統合することに焦点を当てたポリシーレコメンデーションを提案する。
論文 参考訳(メタデータ) (2025-09-11T14:50:41Z) - Generative AI for Secure and Privacy-Preserving Mobile Crowdsensing [74.58071278710896]
生成AIは、学術分野と産業分野の両方から多くの注目を集めている。
セキュアでプライバシ保護のモバイルクラウドセンシング(SPPMCS)は、データ収集/取得に広く応用されている。
論文 参考訳(メタデータ) (2024-05-17T04:00:58Z) - Beyond principlism: Practical strategies for ethical AI use in research practices [0.0]
科学研究における生成的人工知能の急速な採用は、倫理的ガイドラインの開発を上回っている。
既存のアプローチは、科学研究の実践においてAIの倫理的課題に取り組むための実践的なガイダンスをほとんど提供しない。
抽象的な原則と日々の研究実践のギャップを埋めるために,ユーザ中心の現実主義に触発されたアプローチを提案する。
論文 参考訳(メタデータ) (2024-01-27T03:53:25Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Compliance Challenges in Forensic Image Analysis Under the Artificial
Intelligence Act [8.890638003061605]
法医学的画像解析における機械学習の利用が、なぜハイリスクに分類されるのかを概観する。
ドラフトAI法の下では、法執行機関で使用されるリスクの高いAIシステムは許可されるが、必須要件に従わなければならない。
論文 参考訳(メタデータ) (2022-03-01T14:03:23Z) - AI & Racial Equity: Understanding Sentiment Analysis Artificial
Intelligence, Data Security, and Systemic Theory in Criminal Justice Systems [0.0]
人種的体系的不正を悪化または減少させる人工知能の様々な形態が研究されている。
これは、歴史的体系的パターン、暗黙の偏見、既存のアルゴリズム的リスク、そして自然言語処理に基づくAI(リスク評価ツールなど)が人種的に異なる結果をもたらすという法的意味を通じて主張されている。
人種的に不正な結果や慣行から逸脱するためには、内部の機関や企業がアルゴリズム、プライバシーおよびセキュリティリスクをどのように活用するかを規制し、規制するために、より訴訟的な政策が必要であると結論付けている。
論文 参考訳(メタデータ) (2022-01-03T19:42:08Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。