論文の概要: Preventing AI Deepfake Abuse: An Islamic Ethics Framework
- arxiv url: http://arxiv.org/abs/2512.17218v2
- Date: Wed, 24 Dec 2025 18:44:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-29 13:23:29.769525
- Title: Preventing AI Deepfake Abuse: An Islamic Ethics Framework
- Title(参考訳): AIディープフェイクの悪用を防ぐ - イスラム倫理フレームワーク
- Authors: Wisnu Uriawan, Imany Fauzy Rahman, Muhamad Zidan, Irma Rohmatillah, Muhammad Arkan Raihan, Irma Dwiyanti,
- Abstract要約: 本研究は、ディープフェイク技術の誤用を軽減するための予防的アプローチとして、包括的なイスラム倫理的枠組みを定式化することを目的とする。
この分析は、Maqasid al-Shariahの原則を統合することが、デジタル技術の責任を負う使用を管理するための強力な規範的基盤を提供することを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid development of deepfake technology powered by AI has raised global concerns regarding the manipulation of information, the usurpation of digital identities, and the erosion of public trust in the authenticity of online content. These challenges extend beyond technical issues and involve complex moral dimensions, rendering conventional, technologically driven, and reactive management approaches insufficient to address underlying causes such as intent, ethical responsibility, and intangible social harm. In response to these challenges, this study aims to formulate a comprehensive Islamic ethical framework as a preventive approach to mitigate the misuse of deepfake technology. This study employed a Systematic Literature Review (SLR) guided by the Preferred Reporting Items for Systematic Reviews and Meta-Analyses (PRISMA), selecting ten primary sources published between 2018 and 2025 to identify ethical gaps, regulatory needs, and appropriate normative solutions. The analysis demonstrates that integrating the principles of Maqasid al-Shariah, particularly hifz al-ird and hifz al-nafs, provides a strong normative foundation for governing the responsible use of digital technology. Based on the findings, this study proposes three strategic recommendations: regulatory reforms that recognize the intangible and psychological harms resulting from reputational damage; strengthened technology governance grounded in moral accountability and the values of adl, amanah, and transparency; and enhanced public digital literacy based on the principle of tabayyun. Overall, the findings suggest that the application of Islamic ethical principles shifts governance paradigms from punitive mechanisms toward preventive approaches that emphasize the protection of human dignity, the prevention of harm, and the promotion of the common good in the digital age.
- Abstract(参考訳): AIを活用したディープフェイク技術の急速な発展は、情報の操作、デジタルアイデンティティの盗用、オンラインコンテンツの信頼性に対する公的な信頼の侵食に関する世界的な懸念を提起している。
これらの課題は、技術的な問題を超えて、複雑な道徳的次元を巻き込み、意図、倫理的責任、無形社会的な危害といった根本原因に対処するには、従来の、技術的に駆動された、リアクティブな管理アプローチを表現できない。
これらの課題に応えて、ディープフェイク技術の誤用を軽減するための予防的アプローチとして、包括的なイスラム倫理的枠組みを定式化することを目的とする。
この研究は、2018年から2025年にかけて発行された10の一次資料を選定し、倫理的ギャップ、規制の必要性、適切な規範的解決策を特定するために、事前報告項目とメタ分析項目(PRISMA)によって導かれた体系的文献レビュー(SLR)を採用した。
この分析は、Maqasid al-Shariahの原則、特にhifz al-irdとhifz al-nafsを統合することが、デジタル技術の責任を負う使用を管理するための強力な規範的基盤を提供することを示している。
本研究は,無形・心理的被害を評価的損害から認識する規制改革,道徳的説明責任とアドル,アマナ,透明性の価値観を基盤とした技術ガバナンスの強化,タブイユンの原理に基づくデジタルリテラシーの向上,の3つの戦略的勧告を提案する。
全体として、イスラム倫理原則の適用は、統治のパラダイムを、人間の尊厳の保護、害の防止、デジタル時代における共通善の促進を強調する予防的アプローチに移行させることを示唆している。
関連論文リスト
- A Study on the Framework for Evaluating the Ethics and Trustworthiness of Generative AI [6.664765506069473]
ChatGPTのような生成AIは、驚くべき革新的な可能性を示している。
これは同時に、偏見、有害性、著作権侵害、プライバシー侵害、幻覚などの倫理的・社会的懸念を提起する。
本研究は,社会的影響を反映した新たな人間中心基準の必要性を強調した。
論文 参考訳(メタデータ) (2025-08-30T07:38:07Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Confronting Abusive Language Online: A Survey from the Ethical and Human
Rights Perspective [4.916009028580767]
我々は,nlpによる自動乱用検出に関する大規模な研究を,倫理的課題に焦点を絞ってレビューする。
我々は、この技術の幅広い社会的影響を調べる必要性を強調している。
我々は、オンライン乱用を検知し対処するための、権利を尊重する社会技術的ソリューションのいくつかの機会を特定した。
論文 参考訳(メタデータ) (2020-12-22T19:27:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。