論文の概要: The AI-Fraud Diamond: A Novel Lens for Auditing Algorithmic Deception
- arxiv url: http://arxiv.org/abs/2508.13984v1
- Date: Tue, 19 Aug 2025 16:21:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:32.014198
- Title: The AI-Fraud Diamond: A Novel Lens for Auditing Algorithmic Deception
- Title(参考訳): AI-Fraud Diamond:アルゴリズムの騙しを聴くための新しいレンズ
- Authors: Benjamin Zweers, Diptish Dey, Debarati Bhaumik,
- Abstract要約: 本稿では,従来のフラッド・トライアングルの拡張であるAI-フラッド・ダイアモンドを紹介し,圧力,機会,合理化とともに,技術的不透明度を第4条件として追加する。
従来の詐欺とは異なり、AI対応の詐欺は明確な人間の意図を伴わないが、不透明なモデル行動、欠陥のあるトレーニングデータ、規制されていないデプロイメントプラクティスといったシステムレベルの特徴から生じる可能性がある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As artificial intelligence (AI) systems become increasingly integral to organizational processes, they introduce new forms of fraud that are often subtle, systemic, and concealed within technical complexity. This paper introduces the AI-Fraud Diamond, an extension of the traditional Fraud Triangle that adds technical opacity as a fourth condition alongside pressure, opportunity, and rationalization. Unlike traditional fraud, AI-enabled deception may not involve clear human intent but can arise from system-level features such as opaque model behavior, flawed training data, or unregulated deployment practices. The paper develops a taxonomy of AI-fraud across five categories: input data manipulation, model exploitation, algorithmic decision manipulation, synthetic misinformation, and ethics-based fraud. To assess the relevance and applicability of the AI-Fraud Diamond, the study draws on expert interviews with auditors from two of the Big Four consulting firms. The findings underscore the challenges auditors face when addressing fraud in opaque and automated environments, including limited technical expertise, insufficient cross-disciplinary collaboration, and constrained access to internal system processes. These conditions hinder fraud detection and reduce accountability. The paper argues for a shift in audit methodology-from outcome-based checks to a more diagnostic approach focused on identifying systemic vulnerabilities. Ultimately, the work lays a foundation for future empirical research and audit innovation in a rapidly evolving AI governance landscape.
- Abstract(参考訳): 人工知能(AI)システムが組織プロセスにますます統合されるにつれて、彼らはしばしば微妙で体系的で、技術的な複雑さの中で隠蔽される新しい形の詐欺を導入する。
本稿では,従来のフラッド・トライアングルの拡張であるAI-フラッド・ダイアモンドを紹介し,圧力,機会,合理化とともに,技術的不透明度を第4条件として追加する。
従来の詐欺とは異なり、AI対応の詐欺は明確な人間の意図を伴わないが、不透明なモデル行動、欠陥のあるトレーニングデータ、規制されていないデプロイメントプラクティスといったシステムレベルの特徴から生じる可能性がある。
本稿では,入力データ操作,モデル利用,アルゴリズムによる意思決定操作,合成誤情報,倫理に基づく詐欺の5つのカテゴリにまたがるAIフルートの分類法を開発する。
この研究は、AI-Fraud Diamondの妥当性と適用性を評価するために、Big Fourのコンサルティング会社2社の監査担当者との専門家インタビューに基づいている。
この調査結果は、不透明で自動化された環境で不正に対処する上で、監査人が直面する課題を浮き彫りにした。
これらの条件は不正検出を妨げ、説明責任を減少させる。
この論文は、監査方法論に基づく結果ベースのチェックから、システムの脆弱性を特定することに焦点を当てた、より診断的なアプローチへの移行を論じている。
最終的に、この研究は将来の実証研究の基礎を築き、急速に進化するAIガバナンスの世界におけるイノベーションを監査する。
関連論文リスト
- Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Application of AI-based Models for Online Fraud Detection and Analysis [1.764243259740255]
オンライン不正検出のためのAIおよびNLP技術に関する体系的文献レビューを行う。
各種オンライン詐欺カテゴリを解析するための最先端NLP技術について報告する。
データ制限の問題、トレーニングバイアスレポート、モデルパフォーマンスレポートにおけるメトリクスの選択的な表示などを特定します。
論文 参考訳(メタデータ) (2024-09-25T14:47:03Z) - Aiding Humans in Financial Fraud Decision Making: Toward an XAI-Visualization Framework [6.040452803295326]
金融詐欺捜査員は、大量の構造化されていない情報を手動で合成するという課題に直面している。
現在のVisual Analyticsシステムは、主にこのプロセスの独立した側面をサポートしている。
本稿では,金融不正調査のあらゆる段階において,VAシステムが意思決定者を支援する枠組みを提案する。
論文 参考訳(メタデータ) (2024-08-26T18:10:07Z) - Auditing of AI: Legal, Ethical and Technical Approaches [0.0]
AI監査は、研究と実践の急速に成長している分野である。
AI監査に対する異なるアプローチには、さまざまな余裕と制約がある。
AIガバナンスメカニズムとしての監査の進化における次のステップは、これらの利用可能なアプローチのインターリンクであるべきです。
論文 参考訳(メタデータ) (2024-07-07T12:49:58Z) - A Blueprint for Auditing Generative AI [0.9999629695552196]
生成AIシステムは創発的な能力を示し、幅広い下流タスクに適応できる。
既存の監査手順は、生成的AIシステムによって引き起こされるガバナンスの課題に対処できない。
本稿では、生成AIシステムの設計と普及を行う技術提供者のガバナンス監査、事前学習後の生成AIシステムのモデル監査、生成AIシステムに基づくアプリケーションのアプリケーション監査という3層的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-07-07T11:56:54Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。