論文の概要: Logging Requirement for Continuous Auditing of Responsible Machine Learning-based Applications
- arxiv url: http://arxiv.org/abs/2508.17851v1
- Date: Mon, 25 Aug 2025 09:59:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.718061
- Title: Logging Requirement for Continuous Auditing of Responsible Machine Learning-based Applications
- Title(参考訳): レスポンシブル機械学習アプリケーションにおける継続的監査のためのロギング要件
- Authors: Patrick Loic Foalem, Leuson Da Silva, Foutse Khomh, Heng Li, Ettore Merlo,
- Abstract要約: 機械学習(ML)は、意思決定を自動化するために、業界全体でますます適用されています。
倫理的および法的コンプライアンスに関する懸念は、透明性、公平性、説明責任が制限されているために残っている。
従来のソフトウェアにおける長年のプラクティスのロギングによる監視は、MLアプリケーションの監査に潜在的手段を提供する。
- 参考スコア(独自算出の注目度): 7.520925824033758
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning (ML) is increasingly applied across industries to automate decision-making, but concerns about ethical and legal compliance remain due to limited transparency, fairness, and accountability. Monitoring through logging a long-standing practice in traditional software offers a potential means for auditing ML applications, as logs provide traceable records of system behavior useful for debugging, performance analysis, and continuous auditing. systematically auditing models for compliance or accountability. The findings underscore the need for enhanced logging practices and tooling that systematically integrate responsible AI metrics. Such practices would support the development of auditable, transparent, and ethically responsible ML systems, aligning with growing regulatory requirements and societal expectations. By highlighting specific deficiencies and opportunities, this work provides actionable guidance for both practitioners and tool developers seeking to strengthen the accountability and trustworthiness of ML applications.
- Abstract(参考訳): 機械学習(ML)は、意思決定を自動化するために業界全体でますます適用されているが、倫理的および法的コンプライアンスに関する懸念は、透明性、公正性、説明責任の制限によるままである。
ログは、デバッグ、パフォーマンス分析、継続的な監査に有用なシステムの振る舞いのトレース可能な記録を提供する。
コンプライアンスや説明責任のためのモデルを体系的に監査すること。
この調査結果は、責任あるAIメトリクスを体系的に統合するロギングプラクティスとツーリングの強化の必要性を強調している。
このようなプラクティスは、規制要件の増大と社会的期待と整合して、監査可能な、透明性があり、倫理的に責任を負うMLシステムの開発を支援する。
特定の欠陥と機会を強調することで、この作業は、MLアプリケーションの説明責任と信頼性を強化するための実践者とツール開発者の両方に実用的なガイダンスを提供する。
関連論文リスト
- SOPBench: Evaluating Language Agents at Following Standard Operating Procedures and Constraints [59.645885492637845]
SOPBenchは、各サービス固有のSOPコードプログラムを実行可能な関数の有向グラフに変換する評価パイプラインである。
提案手法では,各サービス固有のSOPコードプログラムを実行可能関数の有向グラフに変換し,自然言語SOP記述に基づいてこれらの関数を呼び出しなければならない。
我々は18の先行モデルを評価し、上位モデルでさえタスクが困難であることを示す。
論文 参考訳(メタデータ) (2025-03-11T17:53:02Z) - Causality Is Key to Understand and Balance Multiple Goals in Trustworthy ML and Foundation Models [91.24296813969003]
本稿では,機械学習に因果的手法を取り入れて,信頼性の高いMLの主要な原則間のトレードオフをナビゲートすることを提唱する。
我々は、信頼できるMLと基礎モデルの両方において、複数の競合する目標のバランスをとるためには、因果的アプローチが不可欠であると主張する。
論文 参考訳(メタデータ) (2025-02-28T14:57:33Z) - The Impossibility of Fair LLMs [17.812295963158714]
さまざまな技術的公正フレームワークを分析し、公正な言語モデルの開発を難易度の高いものにするために、それぞれに固有の課題を見つけます。
それぞれのフレームワークが汎用的なAIコンテキストに拡張されないか、実際には実現不可能であることを示す。
これらの固有の課題は、LLMを含む汎用AIにおいて、限られた参加入力や限られた測定方法といった経験的な課題が克服されたとしても、持続する。
論文 参考訳(メタデータ) (2024-05-28T04:36:15Z) - Pragmatic auditing: a pilot-driven approach for auditing Machine Learning systems [5.26895401335509]
本稿では,欧州委員会が公表したAI-HLEGガイドラインを拡張する手順について述べる。
監査手順は、ドキュメント、説明責任、品質保証を明確に重視するMLライフサイクルモデルに基づいています。
2つの異なる組織による実世界のユースケースで実施される2つのパイロットについて説明する。
論文 参考訳(メタデータ) (2024-05-21T20:40:37Z) - A Framework for Assurance Audits of Algorithmic Systems [2.2342503377379725]
本稿では,運用可能なコンプライアンスおよび保証外部監査フレームワークとして,基準監査を提案する。
AI監査も同様に、AI組織が人間の価値を害し、維持する方法でアルゴリズムを管理する能力について、ステークホルダーに保証を提供するべきだ、と私たちは主張する。
我々は、より成熟した金融監査産業の実践をAI監査に適用する上でのメリット、固有の制限、実装上の課題について、批判的な議論をすることで締めくくります。
論文 参考訳(メタデータ) (2024-01-26T14:38:54Z) - Trustworthy Artificial Intelligence and Process Mining: Challenges and
Opportunities [0.8602553195689513]
プロセスマイニングは、AIコンプライアンスプロセスの実行に事実に基づく可視性を得るために有用なフレームワークを提供することができることを示す。
AI規制コンプライアンスプロセスの不確実性を分析し、修正し、監視する自動化アプローチを提供する。
論文 参考訳(メタデータ) (2021-10-06T12:50:47Z) - Automated Sustainability Compliance Checking Using Process Mining and
Formal Logic [0.0]
私は、サステナビリティコンプライアンスの目的で、コンプライアンスチェック技術の適用に貢献したい。
私は、コンプライアンスチェックのタスクを自動化するデータ駆動アプローチを分析し、開発したいと思っています。
論文 参考訳(メタデータ) (2020-06-10T11:07:57Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z) - Certified Reinforcement Learning with Logic Guidance [78.2286146954051]
線形時間論理(LTL)を用いて未知の連続状態/動作マルコフ決定過程(MDP)のゴールを定式化できるモデルフリーなRLアルゴリズムを提案する。
このアルゴリズムは、トレースが仕様を最大確率で満たす制御ポリシーを合成することが保証される。
論文 参考訳(メタデータ) (2019-02-02T20:09:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。