論文の概要: Algorithmic Criminal Liability in Greenwashing: Comparing India, United States, and European Union
- arxiv url: http://arxiv.org/abs/2512.12837v1
- Date: Sun, 14 Dec 2025 20:49:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.466012
- Title: Algorithmic Criminal Liability in Greenwashing: Comparing India, United States, and European Union
- Title(参考訳): グリーンウォッシングにおけるアルゴリズム的刑事責任--インド、米国、欧州連合の比較
- Authors: Sahibpreet Singh, Manjit Singh,
- Abstract要約: 本研究は、インド、米国、EUを横断するAIによるグリーンウォッシングにおける刑事責任に関する比較法的な分析を行う。
既存の法令は、実証可能な人間の意図に責任を課すことによって人間中心の偏見を示し、アルゴリズムの騙しに対処するには不適当である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: AI-powered greenwashing has emerged as an insidious challenge within corporate sustainability governance, exacerbating the opacity of environmental disclosures and subverting regulatory oversight. This study conducts a comparative legal analysis of criminal liability for AI-mediated greenwashing across India, the US, and the EU, exposing doctrinal lacunae in attributing culpability when deceptive claims originate from algorithmic systems. Existing statutes exhibit anthropocentric biases by predicating liability on demonstrable human intent, rendering them ill-equipped to address algorithmic deception. The research identifies a critical gap in jurisprudential adaptation, as prevailing fraud statutes remain antiquated vis-à-vis AI-generated misrepresentation. Utilising a doctrinal legal methodology, this study systematically dissects judicial precedents and statutory instruments, yielding results regarding the potential expansion of corporate criminal liability. Findings underscore the viability of strict liability models, recalibrated governance frameworks for AI accountability, and algorithmic due diligence mandates under ESG regimes. Comparative insights reveal jurisdictional disparities, with the EU Corporate Sustainability Due Diligence Directive (CSDDD) offering a potential transnational model. This study contributes to AI ethics and environmental jurisprudence by advocating for a hybrid liability framework integrating algorithmic risk assessment with legal personhood constructs, ensuring algorithmic opacity does not preclude liability enforcement.
- Abstract(参考訳): AIを利用したグリーンウォッシングは、企業サステナビリティガバナンスにおいて、環境開示の不透明さを悪化させ、規制の監督を覆すという難題として浮上している。
本研究は,インド,米国,EUにまたがるAIによるグリーンウォッシングの犯罪責任を比較法的に分析し,アルゴリズムシステムに起因した誤認的主張の帰結に起因した教義的ラグナを明らかにする。
既存の法令は、実証可能な人間の意図に責任を課すことによって人間中心の偏見を示し、アルゴリズムの騙しに対処するには不適当である。
この研究は、不正行為の法則が、AIが生成した誤った表現の古さを保っているため、法学適応における重大なギャップを明らかにしている。
本研究は, 法的な方法論を用いて, 法人刑事責任の拡大について, 司法先例や法令を体系的に解剖し, 結果を得た。
発見は厳格な責任モデルの実現可能性、AI説明責任のためのガバナンスフレームワークの再検討、ESG体制下でのアルゴリズムによるデューディリジェンス委任などを強調している。
比較的な洞察は、EUの企業持続可能性デュ・ディリジェンス・ディレクティブ(CSDDD)が、潜在的に超国家的モデルを提供するような、司法上の格差を明らかにしている。
本研究は,アルゴリズム的リスクアセスメントと法的な人格構成を一体化して,アルゴリズム的不透明性が責任執行を妨げないようなハイブリッド・リバビリティ・フレームワークを提案することによって,AI倫理と環境ジャーリプルーデンスに寄与する。
関連論文リスト
- Argumentation-Based Explainability for Legal AI: Comparative and Regulatory Perspectives [0.9668407688201359]
人工知能(AI)システムは、法的文脈においてますます多くデプロイされている。
いわゆる「ブラックボックス問題」は、自動意思決定の正当性を損なう。
XAIは透明性を高めるための様々な方法を提案している。
論文 参考訳(メタデータ) (2025-10-13T07:19:15Z) - Unequal Uncertainty: Rethinking Algorithmic Interventions for Mitigating Discrimination from AI [38.122893275090206]
人工知能の予測の不確実性は、AI支援による意思決定に緊急の法的および倫理的課題をもたらす。
人間のAI協力のためのガードレールとして機能する2つのアルゴリズム的介入について検討する。
どちらの介入も、英国法の下では違法な差別のリスクをもたらすが、選択的摩擦はより公平で説明可能なAI支援による意思決定への、有望な道筋を提供する、と我々は主張する。
論文 参考訳(メタデータ) (2025-08-11T11:43:34Z) - Artificial Intelligence in Government: Why People Feel They Lose Control [44.99833362998488]
行政における人工知能の利用は急速に拡大している。
AIはより効率と応答性を約束するが、政府機能への統合は公正性、透明性、説明責任に関する懸念を提起する。
この記事では、デリゲートの特別事例として、AI導入に関するプリンシパル・エージェント理論を適用します。
論文 参考訳(メタデータ) (2025-05-02T07:46:41Z) - On Algorithmic Fairness and the EU Regulations [0.2538209532048867]
この論文は、欧州連合(EU)における非差別に焦点を当てたアルゴリズム的公正に焦点を当てている。
この論文は、AIシステムの差別バイアスを修正することは、EU規則の下で法的に可能であることを実証している。
この論文は、AIエンジニアリングにおけるコンプライアンスの増大する研究領域を拡大し、強化し、いくつかの法的洞察を得て、アルゴリズムフェアネス研究に貢献する。
論文 参考訳(メタデータ) (2024-11-13T06:23:54Z) - Peer-induced Fairness: A Causal Approach for Algorithmic Fairness Auditing [0.0]
欧州連合の人工知能法は2024年8月1日に施行された。
リスクの高いAIアプリケーションは、厳格な透明性と公正な基準に従わなければならない。
本稿では,対実的公正性とピア比較戦略の強みを組み合わせた新しい枠組みを提案する。
論文 参考訳(メタデータ) (2024-08-05T15:35:34Z) - Implications of the AI Act for Non-Discrimination Law and Algorithmic Fairness [1.5029560229270191]
AIにおける公平性というトピックは、ここ数年で意味のある議論を巻き起こした。
法的な見地からは、多くのオープンな疑問が残る。
AI法は、これらの2つのアプローチをブリッジする大きな一歩を踏み出すかもしれない。
論文 参考訳(メタデータ) (2024-03-29T09:54:09Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Adversarial Scrutiny of Evidentiary Statistical Software [32.962815960406196]
米国の刑事法体系はますます、人を有罪にし、投獄するためにソフトウェア出力に依存している。
本稿では,前向きな統計的ソフトウェアの有効性を検証するための監査フレームワークとして,頑健な敵検定を提案する。
論文 参考訳(メタデータ) (2022-06-19T02:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。