論文の概要: Explainability as a Compliance Requirement: What Regulated Industries Need from AI Tools for Design Artifact Generation
- arxiv url: http://arxiv.org/abs/2507.09220v1
- Date: Sat, 12 Jul 2025 09:34:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:22.764888
- Title: Explainability as a Compliance Requirement: What Regulated Industries Need from AI Tools for Design Artifact Generation
- Title(参考訳): コンプライアンス要件としての説明可能性:デザインアーティファクト生成のためのAIツールから規制産業が必要とするもの
- Authors: Syed Tauhid Ullah Shah, Mohammad Hussein, Ann Barcomb, Mohammad Moshirpour,
- Abstract要約: 本稿では,AIによるデザインアーティファクト生成における説明可能性のギャップについて,安全クリティカル産業の実践者10人との半構造化インタビューを通して検討する。
我々の研究結果によると、説明不能なAI出力は、広範囲な手作業による検証、ステークホルダ信頼の低減、ドメイン固有の用語を扱うのに苦労、チームコラボレーションの破壊、規制コンプライアンスのリスクの導入を必要としている。
この研究は、要件エンジニアリングにおけるAIツールの透明性、信頼性、適用性を改善するための実践的なロードマップを概説する。
- 参考スコア(独自算出の注目度): 0.7874708385247352
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial Intelligence (AI) tools for automating design artifact generation are increasingly used in Requirements Engineering (RE) to transform textual requirements into structured diagrams and models. While these AI tools, particularly those based on Natural Language Processing (NLP), promise to improve efficiency, their adoption remains limited in regulated industries where transparency and traceability are essential. In this paper, we investigate the explainability gap in AI-driven design artifact generation through semi-structured interviews with ten practitioners from safety-critical industries. We examine how current AI-based tools are integrated into workflows and the challenges arising from their lack of explainability. We also explore mitigation strategies, their impact on project outcomes, and features needed to improve usability. Our findings reveal that non-explainable AI outputs necessitate extensive manual validation, reduce stakeholder trust, struggle to handle domain-specific terminology, disrupt team collaboration, and introduce regulatory compliance risks, often negating the anticipated efficiency benefits. To address these issues, we identify key improvements, including source tracing, providing clear justifications for tool-generated decisions, supporting domain-specific adaptation, and enabling compliance validation. This study outlines a practical roadmap for improving the transparency, reliability, and applicability of AI tools in requirements engineering workflows, particularly in regulated and safety-critical environments where explainability is crucial for adoption and certification.
- Abstract(参考訳): デザインアーティファクト生成を自動化する人工知能(AI)ツールは、テキスト要求を構造化図やモデルに変換するために、Requireements Engineering(RE)でますます利用されている。
これらのAIツール、特に自然言語処理(NLP)に基づくツールは効率向上を約束するが、透明性とトレーサビリティが不可欠である規制業界では採用が限られている。
本稿では,AIによるデザインアーティファクト生成における説明可能性のギャップについて,安全クリティカル産業の実践者10人との半構造化インタビューを通して検討する。
我々は、現在のAIベースのツールがワークフローにどのように統合されているか、説明責任の欠如から生じる課題について検討する。
また、緩和戦略、プロジェクト成果への影響、ユーザビリティ向上に必要な機能についても検討します。
我々の調査によると、説明不能なAI出力は、広範囲な手作業による検証を必要とし、ステークホルダーの信頼を減らし、ドメイン固有の用語を扱うのに苦労し、チームコラボレーションを妨害し、規制コンプライアンスのリスクを導入し、しばしば予想される効率のメリットを否定する。
これらの問題に対処するため、ソーストレース、ツール生成決定の明確な正当性の提供、ドメイン固有の適応のサポート、コンプライアンス検証の有効化など、重要な改善点を特定します。
本稿では,AIツールの透明性,信頼性,適用性を改善するための実践的なロードマップについて概説する。
関連論文リスト
- Rethinking Data Protection in the (Generative) Artificial Intelligence Era [115.71019708491386]
現代の(生産的な)AIモデルやシステムに生じる多様な保護ニーズを捉える4段階の分類法を提案する。
当社のフレームワークは、データユーティリティとコントロールのトレードオフに関する構造化された理解を提供し、AIパイプライン全体にわたっています。
論文 参考訳(メタデータ) (2025-07-03T02:45:51Z) - Hybrid Reasoning for Perception, Explanation, and Autonomous Action in Manufacturing [0.0]
CIPHERは、産業制御のための人間のような推論を再現することを目的としたビジョン言語アクション(VLA)モデルフレームワークである。
システム状態の定量的評価を可能にする回帰モデルであるプロセスエキスパートを統合する。
プロセス監視からの視覚的またはテキスト的入力を解釈し、その決定を説明し、正確なマシン命令を自律的に生成する。
論文 参考訳(メタデータ) (2025-06-10T05:37:33Z) - Edge-Cloud Collaborative Computing on Distributed Intelligence and Model Optimization: A Survey [59.52058740470727]
エッジクラウドコラボレーティブコンピューティング(ECCC)は、現代のインテリジェントアプリケーションの計算要求に対処するための重要なパラダイムとして登場した。
AIの最近の進歩、特にディープラーニングと大規模言語モデル(LLM)は、これらの分散システムの能力を劇的に向上させてきた。
この調査は、基本的なアーキテクチャ、技術の実現、新しいアプリケーションに関する構造化されたチュートリアルを提供する。
論文 参考訳(メタデータ) (2025-05-03T13:55:38Z) - Interactive Agents to Overcome Ambiguity in Software Engineering [61.40183840499932]
AIエージェントは、あいまいで不明確なユーザー指示に基づいて、タスクを自動化するためにますますデプロイされている。
不安定な仮定をし、明確な質問をしないことは、最適以下の結果につながる可能性がある。
対話型コード生成設定において,LLMエージェントが不明瞭な命令を処理する能力について,プロプライエタリモデルとオープンウェイトモデルを評価して検討する。
論文 参考訳(メタデータ) (2025-02-18T17:12:26Z) - Exploring Gen-AI applications in building research and industry: A review [10.154329382433213]
本稿では,建築業界におけるジェネレーティブAI(Gen-AI)技術の変革の可能性について検討する。
これらの先進的なAIツールを活用することで、自動コンプライアンスチェックや設計支援の構築など、主要な領域にわたるアプリケーションについて調査する。
この論文は、建築業界におけるGen-AIの現在の能力に関する包括的分析で締めくくっている。
論文 参考訳(メタデータ) (2024-10-01T21:59:08Z) - Retrieval-Augmented Instruction Tuning for Automated Process Engineering Calculations : A Tool-Chaining Problem-Solving Framework with Attributable Reflection [0.0]
オープンでカスタマイズ可能な小型コード言語モデル(SLM)を強化するためにRAIT(Retrieval-Augmented Instruction-Tuning)を活用する新しい自律エージェントフレームワークを提案する。
命令チューニングされたコードSLMと外部ツールを使用してRACG(Retrieval-Augmented Code Generation)を組み合わせることで、エージェントは自然言語仕様からコードを生成し、デバッグし、最適化する。
我々のアプローチは、専門的なプロセスエンジニアリングタスクのための基礎的AIモデルの欠如の限界に対処し、説明可能性、知識編集、費用対効果の利点を提供する。
論文 参考訳(メタデータ) (2024-08-28T15:33:47Z) - Natural Language Processing for Requirements Traceability [47.93107382627423]
トレーサビリティは、特に安全クリティカルなシステムにおいて、要件とソフトウェアエンジニアリングにおいて重要な役割を果たす。
自然言語処理(NLP)とその関連技術は、過去10年間に大きく進歩してきた。
論文 参考訳(メタデータ) (2024-05-17T15:17:00Z) - Decoding the Digital Fine Print: Navigating the potholes in Terms of service/ use of GenAI tools against the emerging need for Transparent and Trustworthy Tech Futures [0.0]
この研究は、特定のGenAIにおいて、ユーザの信頼を育み、AIの文脈における情報的意思決定を促進するために、明確で理解不能なサービス用語が果たす重要な役割について調査する。
これは、複雑な法的用語と詳細な細かな印刷によって提示される障害を強調しており、これは真のユーザの同意と会話を妨げる。
発見は文書品質の矛盾と変動を示し、開示の慣行における統一性の要求が押し寄せていることを示している。
論文 参考訳(メタデータ) (2024-03-26T04:54:53Z) - AI for IT Operations (AIOps) on Cloud Platforms: Reviews, Opportunities
and Challenges [60.56413461109281]
IT運用のための人工知能(AIOps)は、AIのパワーとIT運用プロセスが生成するビッグデータを組み合わせることを目的としている。
我々は、IT運用活動が発信する重要なデータの種類、分析における規模と課題、そしてどのように役立つかについて深く議論する。
主要なAIOpsタスクは、インシデント検出、障害予測、根本原因分析、自動アクションに分類します。
論文 参考訳(メタデータ) (2023-04-10T15:38:12Z) - Artificial Intelligence in Governance, Risk and Compliance: Results of a study on potentials for the application of artificial intelligence (AI) in governance, risk and compliance (GRC) [0.0]
GRC(Governance, Risk and Compliance)とは、ガバナンスの統合的なアプローチである。
ガバナンス機能は相互にリンクされ、互いに分離されない。
人工知能は、非構造化データセットの処理と分析にGRCで使用されている。
論文 参考訳(メタデータ) (2022-12-07T12:36:10Z) - Tools and Practices for Responsible AI Engineering [0.5249805590164901]
我々は、責任あるAIエンジニアリングに対する重要なニーズに対処する2つの新しいソフトウェアライブラリを提示する。
hydra-zenは、複雑なAIアプリケーションとその振る舞いを再現するプロセスを劇的に単純化する。
rAI-toolboxは、AIモデルの堅牢性を評価し、拡張する方法を可能にするように設計されている。
論文 参考訳(メタデータ) (2022-01-14T19:47:46Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。