論文の概要: Justified Evidence Collection for Argument-based AI Fairness Assurance
- arxiv url: http://arxiv.org/abs/2505.08064v1
- Date: Mon, 12 May 2025 21:05:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-14 20:57:54.333024
- Title: Justified Evidence Collection for Argument-based AI Fairness Assurance
- Title(参考訳): 論証に基づくAIフェアネス保証のための正当化された証拠収集
- Authors: Alpay Sabuncuoglu, Christopher Burr, Carsten Maple,
- Abstract要約: 本稿では,2段階の議論に基づく保証に対する動的アプローチを運用するために,ソフトウェアツールがサポートするシステムエンジニアリング駆動フレームワークを提案する。
フレームワークの有効性は、フェアネスに関連する議論を支援することに焦点を当てた、金融における実証的なケーススタディによって実証される。
- 参考スコア(独自算出の注目度): 7.65321625950609
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: It is well recognised that ensuring fair AI systems is a complex sociotechnical challenge, which requires careful deliberation and continuous oversight across all stages of a system's lifecycle, from defining requirements to model deployment and deprovisioning. Dynamic argument-based assurance cases, which present structured arguments supported by evidence, have emerged as a systematic approach to evaluating and mitigating safety risks and hazards in AI-enabled system development and have also been extended to deal with broader normative goals such as fairness and explainability. This paper introduces a systems-engineering-driven framework, supported by software tooling, to operationalise a dynamic approach to argument-based assurance in two stages. In the first stage, during the requirements planning phase, a multi-disciplinary and multi-stakeholder team define goals and claims to be established (and evidenced) by conducting a comprehensive fairness governance process. In the second stage, a continuous monitoring interface gathers evidence from existing artefacts (e.g. metrics from automated tests), such as model, data, and use case documentation, to support these arguments dynamically. The framework's effectiveness is demonstrated through an illustrative case study in finance, with a focus on supporting fairness-related arguments.
- Abstract(参考訳): 公正なAIシステムの確保は複雑な社会技術的課題であり、システムのライフサイクルのすべてのステージにおいて、要件の定義からモデルデプロイメントやデプロビジョンに至るまで、慎重に検討と継続的な監視が必要であることがよく認識されている。
証拠によって支持される構造化された議論を提示する動的引数ベースの保証ケースは、AI対応システム開発における安全リスクとハザードの評価と緩和のための体系的なアプローチとして現れ、公正性や説明可能性といったより広範な規範的な目標に対処するために拡張されている。
本稿では,2段階の議論に基づく保証に対する動的アプローチを運用するために,ソフトウェアツールがサポートするシステムエンジニアリング駆動フレームワークを提案する。
第一段階では、要求計画フェーズの間、複数の学際的かつ複数のステークホルダーチームが、包括的な公正ガバナンスプロセスを実行することによって確立される目標と主張を定義します。
第2段階では、継続的監視インターフェースは、モデル、データ、ユースケースドキュメントといった既存の成果物(例えば自動テストのメトリクス)から証拠を収集し、これらの引数を動的にサポートする。
フレームワークの有効性は、フェアネスに関連する議論を支援することに焦点を当てた、金融における実証的なケーススタディによって実証される。
関連論文リスト
- A Survey of Frontiers in LLM Reasoning: Inference Scaling, Learning to Reason, and Agentic Systems [93.8285345915925]
推論(Reasoning)は、論理的推論、問題解決、意思決定を可能にする基本的な認知プロセスである。
大規模言語モデル(LLM)の急速な進歩により、推論は高度なAIシステムを区別する重要な能力として浮上した。
我々は,(1)推論が達成される段階を定義するレジーム,(2)推論プロセスに関与するコンポーネントを決定するアーキテクチャの2つの側面に沿って既存の手法を分類する。
論文 参考訳(メタデータ) (2025-04-12T01:27:49Z) - AILuminate: Introducing v1.0 of the AI Risk and Reliability Benchmark from MLCommons [62.374792825813394]
本稿ではAI製品リスクと信頼性を評価するための業界標準ベンチマークとして,AIluminate v1.0を紹介する。
このベンチマークは、危険、違法、または望ましくない行動を12の危険カテゴリーで引き起こすように設計されたプロンプトに対するAIシステムの抵抗を評価する。
論文 参考訳(メタデータ) (2025-02-19T05:58:52Z) - Causality can systematically address the monsters under the bench(marks) [64.36592889550431]
ベンチマークはさまざまなバイアス、アーティファクト、リークに悩まされている。
モデルは、調査の不十分な障害モードのため、信頼できない振る舞いをする可能性がある。
因果関係はこれらの課題を体系的に解決するための 理想的な枠組みを提供します
論文 参考訳(メタデータ) (2025-02-07T17:01:37Z) - Platform-Aware Mission Planning [50.56223680851687]
本稿では,PAMP(Platform-Aware Mission Planning)の問題を紹介する。
第1のベースラインアプローチはミッションレベルとプラットフォームレベル、第2のベースラインアプローチは抽象リファインメントループに基づいている。
提案手法の健全性と完全性を実証し,実験により検証する。
論文 参考訳(メタデータ) (2025-01-16T16:20:37Z) - Automating Semantic Analysis of System Assurance Cases using Goal-directed ASP [1.2189422792863451]
本稿では, セマンティックルールに基づく分析機能を備えた Assurance 2.0 の拡張手法を提案する。
本稿では, 論理的整合性, 妥当性, 不整合性など, 保証事例のユニークな意味的側面について考察する。
論文 参考訳(メタデータ) (2024-08-21T15:22:43Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。