論文の概要: Trustworthy Artificial Intelligence and Process Mining: Challenges and
Opportunities
- arxiv url: http://arxiv.org/abs/2110.02707v1
- Date: Wed, 6 Oct 2021 12:50:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-07 23:47:29.459342
- Title: Trustworthy Artificial Intelligence and Process Mining: Challenges and
Opportunities
- Title(参考訳): 信頼できる人工知能とプロセスマイニング:挑戦と機会
- Authors: Andrew Pery, Majid Rafiei, Michael Simon, Wil M.P. van der Aalst
- Abstract要約: プロセスマイニングは、AIコンプライアンスプロセスの実行に事実に基づく可視性を得るために有用なフレームワークを提供することができることを示す。
AI規制コンプライアンスプロセスの不確実性を分析し、修正し、監視する自動化アプローチを提供する。
- 参考スコア(独自算出の注目度): 0.8602553195689513
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The premise of this paper is that compliance with Trustworthy AI governance
best practices and regulatory frameworks is an inherently fragmented process
spanning across diverse organizational units, external stakeholders, and
systems of record, resulting in process uncertainties and in compliance gaps
that may expose organizations to reputational and regulatory risks. Moreover,
there are complexities associated with meeting the specific dimensions of
Trustworthy AI best practices such as data governance, conformance testing,
quality assurance of AI model behaviors, transparency, accountability, and
confidentiality requirements. These processes involve multiple steps,
hand-offs, re-works, and human-in-the-loop oversight. In this paper, we
demonstrate that process mining can provide a useful framework for gaining
fact-based visibility to AI compliance process execution, surfacing compliance
bottlenecks, and providing for an automated approach to analyze, remediate and
monitor uncertainty in AI regulatory compliance processes.
- Abstract(参考訳): この論文の前提は、信頼できるAIガバナンスのベストプラクティスと規制フレームワークへのコンプライアンスは、本質的に、さまざまな組織単位、外部利害関係者、記録システムにまたがる断片化されたプロセスであり、結果としてプロセスの不確実性と、組織が評判や規制上のリスクに晒される可能性のあるコンプライアンスのギャップをもたらすことである。
さらに、データガバナンス、コンフォーマンステスト、aiモデルの振る舞いの品質保証、透明性、説明責任、機密性要件など、信頼できるaiベストプラクティスの特定の次元を満たすことに関連する複雑さがある。
これらのプロセスには、複数のステップ、ハンドオフ、リワーク、ヒューマン・イン・ザ・ループの監視が含まれる。
本稿では,プロセスマイニングが,AIコンプライアンスプロセスの実行に対する事実に基づく可視性を獲得し,コンプライアンスボトルネックを克服し,AI規制コンプライアンスプロセスの不確実性を分析し,修正し,監視する自動化アプローチを提供する上で有用なフレームワークを提供することを示す。
関連論文リスト
- Know Where You're Uncertain When Planning with Multimodal Foundation Models: A Formal Framework [54.40508478482667]
認識と計画生成の不確実性を解消し、定量化し、緩和する包括的枠組みを提案する。
本稿では,知覚と意思決定の独特な性質に合わせた手法を提案する。
この不確実性分散フレームワークは, 変動率を最大40%削減し, タスク成功率をベースラインに比べて5%向上させることを示した。
論文 参考訳(メタデータ) (2024-11-03T17:32:00Z) - Meta-Sealing: A Revolutionizing Integrity Assurance Protocol for Transparent, Tamper-Proof, and Trustworthy AI System [0.0]
この研究は、AIシステムの整合性検証を根本的に変更する暗号フレームワークであるMeta-Sealingを紹介する。
このフレームワークは、高度な暗号と分散検証を組み合わせることで、数学的厳密さと計算効率の両方を達成する、暗黙の保証を提供する。
論文 参考訳(メタデータ) (2024-10-31T15:31:22Z) - Ethical and Scalable Automation: A Governance and Compliance Framework for Business Applications [0.0]
本稿では、AIが倫理的で、制御可能で、実行可能で、望ましいものであることを保証するフレームワークを紹介する。
異なるケーススタディは、学術と実践の両方の環境でAIを統合することで、このフレームワークを検証する。
論文 参考訳(メタデータ) (2024-09-25T12:39:28Z) - RegNLP in Action: Facilitating Compliance Through Automated Information Retrieval and Answer Generation [51.998738311700095]
その長さ、複雑さ、頻繁な更新を特徴とする規制文書は解釈が難しい。
RegNLPは、規制規則と義務のアクセスと解釈を簡素化することを目的とした、多分野のサブフィールドである。
ObliQAデータセットには、Abu Dhabi Global Markets (ADGM) からの27,869の質問が含まれている。
論文 参考訳(メタデータ) (2024-09-09T14:44:19Z) - A Framework for Assurance Audits of Algorithmic Systems [2.2342503377379725]
本稿では,運用可能なコンプライアンスおよび保証外部監査フレームワークとして,基準監査を提案する。
AI監査も同様に、AI組織が人間の価値を害し、維持する方法でアルゴリズムを管理する能力について、ステークホルダーに保証を提供するべきだ、と私たちは主張する。
我々は、より成熟した金融監査産業の実践をAI監査に適用する上でのメリット、固有の制限、実装上の課題について、批判的な議論をすることで締めくくります。
論文 参考訳(メタデータ) (2024-01-26T14:38:54Z) - Auditing and Generating Synthetic Data with Controllable Trust Trade-offs [54.262044436203965]
合成データセットとAIモデルを包括的に評価する総合監査フレームワークを導入する。
バイアスや差別の防止、ソースデータへの忠実性の確保、実用性、堅牢性、プライバシ保護などに焦点を当てている。
多様なユースケースにまたがる様々な生成モデルを監査することにより,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-21T09:03:18Z) - Exploring the Relevance of Data Privacy-Enhancing Technologies for AI
Governance Use Cases [1.5293427903448022]
異なるAIガバナンスの目的を情報フローのシステムとして見ることは有用である。
これらの異なるAIガバナンスソリューション間の相互運用性の重要性は明確になる。
論文 参考訳(メタデータ) (2023-03-15T21:56:59Z) - Towards a multi-stakeholder value-based assessment framework for
algorithmic systems [76.79703106646967]
我々は、価値間の近さと緊張を可視化する価値に基づくアセスメントフレームワークを開発する。
我々は、幅広い利害関係者に評価と検討のプロセスを開放しつつ、それらの運用方法に関するガイドラインを提示する。
論文 参考訳(メタデータ) (2022-05-09T19:28:32Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - Automated Sustainability Compliance Checking Using Process Mining and
Formal Logic [0.0]
私は、サステナビリティコンプライアンスの目的で、コンプライアンスチェック技術の適用に貢献したい。
私は、コンプライアンスチェックのタスクを自動化するデータ駆動アプローチを分析し、開発したいと思っています。
論文 参考訳(メタデータ) (2020-06-10T11:07:57Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。