論文の概要: The SMART+ Framework for AI Systems
- arxiv url: http://arxiv.org/abs/2512.08592v1
- Date: Tue, 09 Dec 2025 13:33:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 22:28:07.976995
- Title: The SMART+ Framework for AI Systems
- Title(参考訳): AIシステムのためのSMART+フレームワーク
- Authors: Laxmiraju Kandikatla, Branislav Radeljic,
- Abstract要約: 人工知能(AI)システムは現在、複数の産業の不可欠な部分となっている。
臨床研究において、AIは、臨床試験における自動不良事象検出、プロトコルの登録のための患者の適性スクリーニング、データ品質の検証をサポートする。
医療以外にも、AIはリアルタイム不正検出、自動ローンリスク評価、アルゴリズムによる意思決定を通じて金融を変革している。
- 参考スコア(独自算出の注目度): 0.2039123720459736
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial Intelligence (AI) systems are now an integral part of multiple industries. In clinical research, AI supports automated adverse event detection in clinical trials, patient eligibility screening for protocol enrollment, and data quality validation. Beyond healthcare, AI is transforming finance through real-time fraud detection, automated loan risk assessment, and algorithmic decision-making. Similarly, in manufacturing, AI enables predictive maintenance to reduce equipment downtime, enhances quality control through computer-vision inspection, and optimizes production workflows using real-time operational data. While these technologies enhance operational efficiency, they introduce new challenges regarding safety, accountability, and regulatory compliance. To address these concerns, we introduce the SMART+ Framework - a structured model built on the pillars of Safety, Monitoring, Accountability, Reliability, and Transparency, and further enhanced with Privacy & Security, Data Governance, Fairness & Bias, and Guardrails. SMART+ offers a practical, comprehensive approach to evaluating and governing AI systems across industries. This framework aligns with evolving mechanisms and regulatory guidance to integrate operational safeguards, oversight procedures, and strengthened privacy and governance controls. SMART+ demonstrates risk mitigation, trust-building, and compliance readiness. By enabling responsible AI adoption and ensuring auditability, SMART+ provides a robust foundation for effective AI governance in clinical research.
- Abstract(参考訳): 人工知能(AI)システムは現在、複数の産業の不可欠な部分となっている。
臨床研究において、AIは、臨床試験における自動不良事象検出、プロトコルの登録のための患者の適性スクリーニング、データ品質の検証をサポートする。
医療以外にも、AIはリアルタイム不正検出、自動ローンリスク評価、アルゴリズムによる意思決定を通じて金融を変革している。
同様に、製造においてAIは、予測メンテナンスを可能にし、機器のダウンタイムを低減し、コンピュータビジョン検査による品質管理を強化し、リアルタイム運用データを使用して生産ワークフローを最適化する。
これらの技術は運用効率を向上させる一方で、安全性、説明責任、規制遵守に関する新たな課題を導入している。
これらの懸念に対処するために、SMART+ Framework - 安全、監視、アカウンタビリティ、信頼性、透明性の柱の上に構築された構造化モデルを導入し、プライバシとセキュリティ、データガバナンス、公正とバイアス、ガードレールをさらに強化します。
SMART+は、業界全体でAIシステムを評価し、管理するための実践的で包括的なアプローチを提供する。
このフレームワークは、運用上の保護と監視手順を統合し、プライバシーとガバナンスのコントロールを強化するための、進化するメカニズムと規制ガイダンスと連携する。
SMART+はリスク軽減、信頼構築、コンプライアンスの準備を実証する。
責任あるAIの採用を可能にし、監査可能性を確保することで、SMART+は臨床研究において効果的なAIガバナンスのための堅牢な基盤を提供する。
関連論文リスト
- Workday's Approach to Secure and Compliant Cloud ERP Systems [0.0]
グローバル標準へのワークデイの準拠は、金融、医療、政府のデータを最善に保護する能力を示している。
比較レビューでは、リスク管理の強化、運用の柔軟性、セキュリティ侵害の軽減が示されている。
また、AI、機械学習、ブロックチェーン技術の統合など、新たなトレンドについても検討している。
論文 参考訳(メタデータ) (2025-10-31T12:25:06Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Engineering Risk-Aware, Security-by-Design Frameworks for Assurance of Large-Scale Autonomous AI Models [0.0]
本稿では,大規模自律型AIシステムを対象とした企業レベルのリスク認識型セキュリティ・バイ・デザイン手法を提案する。
敵的および運用的ストレス下でのモデル動作の証明可能な保証を提供する統一パイプラインについて詳述する。
国家安全保障、オープンソースモデルガバナンス、産業自動化におけるケーススタディは、脆弱性とコンプライアンスのオーバーヘッドの計測可能な削減を実証している。
論文 参考訳(メタデータ) (2025-05-09T20:14:53Z) - Meta-Sealing: A Revolutionizing Integrity Assurance Protocol for Transparent, Tamper-Proof, and Trustworthy AI System [0.0]
この研究は、AIシステムの整合性検証を根本的に変更する暗号フレームワークであるMeta-Sealingを紹介する。
このフレームワークは、高度な暗号と分散検証を組み合わせることで、数学的厳密さと計算効率の両方を達成する、暗黙の保証を提供する。
論文 参考訳(メタデータ) (2024-10-31T15:31:22Z) - RAISE -- Radiology AI Safety, an End-to-end lifecycle approach [5.829180249228172]
放射線学へのAIの統合は、臨床ケアの供給と効率を改善する機会をもたらす。
モデルが安全性、有効性、有効性の最高基準を満たすことに注力すべきである。
ここで提示されるロードマップは、放射線学におけるデプロイ可能で信頼性があり、安全なAIの達成を早めることを目的としている。
論文 参考訳(メタデータ) (2023-11-24T15:59:14Z) - Functional requirements to mitigate the Risk of Harm to Patients from
Artificial Intelligence in Healthcare [0.0]
本研究は、医療目的に関連するリスクを軽減するために、AIシステムが実装可能な14の機能要件を提案する。
ここでの私たちの意図は、将来のEU規制フレームワークに準拠した患者に、継続的なパフォーマンスとAIシステムの使用を保証するために、技術的なソリューションの特定のハイレベルな仕様を提供することです。
論文 参考訳(メタデータ) (2023-09-19T08:37:22Z) - Trustworthy AI Inference Systems: An Industry Research View [58.000323504158054]
我々は、信頼できるAI推論システムの設計、展開、運用にアプローチするための業界調査ビューを提供する。
信頼された実行環境を用いたAIシステムの機会と課題を強調します。
我々は,産業,アカデミック,政府研究者のグローバルな集団的注意を必要とする,さらなる発展の分野を概説する。
論文 参考訳(メタデータ) (2020-08-10T23:05:55Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。