論文の概要: Standardizing Intelligence: Aligning Generative AI for Regulatory and Operational Compliance
- arxiv url: http://arxiv.org/abs/2503.04736v1
- Date: Mon, 03 Feb 2025 16:55:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-16 11:16:24.888739
- Title: Standardizing Intelligence: Aligning Generative AI for Regulatory and Operational Compliance
- Title(参考訳): インテリジェンスを標準化する - 規制および運用コンプライアンスのための生成AIの調整
- Authors: Joseph Marvin Imperial, Matthew D. Jones, Harish Tayyar Madabushi,
- Abstract要約: 我々は、ドメインやセクター間で異なる標準の臨界レベルを評価し、最先端のGenAIモデルの現在のコンプライアンス能力を評価することでそれらを補完する。
全体として、GenAIと標準を計算手法で整合させることは、規制と運用のコンプライアンスを強化するのに役立つと論じる。
- 参考スコア(独自算出の注目度): 3.666326242924816
- License:
- Abstract: Technical standards, or simply standards, are established documented guidelines and rules that facilitate the interoperability, quality, and accuracy of systems and processes. In recent years, we have witnessed an emerging paradigm shift where the adoption of generative AI (GenAI) models has increased tremendously, spreading implementation interests across standard-driven industries, including engineering, legal, healthcare, and education. In this paper, we assess the criticality levels of different standards across domains and sectors and complement them by grading the current compliance capabilities of state-of-the-art GenAI models. To support the discussion, we outline possible challenges and opportunities with integrating GenAI for standard compliance tasks while also providing actionable recommendations for entities involved with developing and using standards. Overall, we argue that aligning GenAI with standards through computational methods can help strengthen regulatory and operational compliance. We anticipate this area of research will play a central role in the management, oversight, and trustworthiness of larger, more powerful GenAI-based systems in the near future.
- Abstract(参考訳): 技術的標準、あるいは単に標準は、システムやプロセスの相互運用性、品質、正確性を促進するためのガイドラインと規則が文書化されている。
近年、生成型AI(GenAI)モデルの採用が大幅に増加し、エンジニアリング、法務、医療、教育など標準主導の産業に実装の関心が広がった。
本稿では、ドメインやセクター間で異なる標準の臨界レベルを評価し、最先端のGenAIモデルの現在のコンプライアンス能力を評価することでそれらを補完する。
この議論を支援するため、標準コンプライアンスタスクにGenAIを統合する上での課題と機会を概説するとともに、標準の開発と利用に関わるエンティティに対して実行可能なレコメンデーションを提供する。
全体として、GenAIと標準を計算手法で整合させることは、規制と運用のコンプライアンスを強化するのに役立つと論じる。
我々は、近い将来、より大規模で強力なGenAIベースのシステムの管理、監視、信頼性において、この領域が中心的な役割を果たすことを期待している。
関連論文リスト
- On the Trustworthiness of Generative Foundation Models: Guideline, Assessment, and Perspective [314.7991906491166]
Generative Foundation Models (GenFMs) がトランスフォーメーションツールとして登場した。
彼らの広く採用されていることは、次元の信頼に関する重要な懸念を提起する。
本稿では,3つの主要なコントリビューションを通じて,これらの課題に対処するための包括的枠組みを提案する。
論文 参考訳(メタデータ) (2025-02-20T06:20:36Z) - Towards Effective Discrimination Testing for Generative AI [5.2817059203636845]
ジェネレーティブAI(GenAI)モデルは、差別行動に対する規制において、新たな課題を提示する。
我々は、GenAI公正性研究がこれらの課題をまだ満たしていないと論じ、代わりに既存のバイアス評価方法と規制目標との間には大きなギャップが残っている。
論文 参考訳(メタデータ) (2024-12-30T16:09:33Z) - An Open Knowledge Graph-Based Approach for Mapping Concepts and Requirements between the EU AI Act and International Standards [1.9142148274342772]
EUのAI法は、規制の遵守に関する技術的要件に従って、そのような組織の焦点をシフトする。
本稿では、規則や標準における規範文に関連する用語と要件をマッピングするための、シンプルで繰り返し可能なメカニズムを提供する。
論文 参考訳(メタデータ) (2024-08-21T18:21:09Z) - Model-based Maintenance and Evolution with GenAI: A Look into the Future [47.93555901495955]
我々は、モデルベースエンジニアリング(MBM&E)の限界に対処する手段として、生成人工知能(GenAI)を用いることができると論じる。
我々は、エンジニアの学習曲線の削減、レコメンデーションによる効率の最大化、ドメイン問題を理解するための推論ツールとしてのGenAIの使用を提案する。
論文 参考訳(メタデータ) (2024-07-09T23:13:26Z) - Securing the Future of GenAI: Policy and Technology [50.586585729683776]
政府はGenAIを規制し、イノベーションと安全性のバランスをとるという課題に、世界中で不満を抱いている。
Google、ウィスコンシン大学、マディソン大学、スタンフォード大学が共同で行ったワークショップは、GenAIのポリシーとテクノロジーのギャップを埋めることを目的としていた。
本稿では,技術進歩を妨げることなく,どのように規制を設計できるか,といった問題に対処するワークショップの議論を要約する。
論文 参考訳(メタデータ) (2024-05-21T20:30:01Z) - Developing and Deploying Industry Standards for Artificial Intelligence in Education (AIED): Challenges, Strategies, and Future Directions [22.65961106637345]
AIED(Artificial Intelligence in Education)は、教育実践に革命をもたらすことを約束している。
AIEDソリューションの開発とデプロイにおける標準化されたプラクティスの欠如は、断片化されたエコシステムにつながった。
この記事では、AIEDにおける業界標準の開発と実装に関する重要なニーズに対処することを目的としている。
論文 参考訳(メタデータ) (2024-03-13T22:38:08Z) - Generative AI and Process Systems Engineering: The Next Frontier [0.5937280131734116]
本稿では,大規模言語モデル (LLM) のような新しい生成人工知能(GenAI)モデルが,プロセスシステム工学 (PSE) におけるソリューション方法論をいかに拡張するかを考察する。
これらの最先端のGenAIモデル、特にファンデーションモデル(FM)は、広範な汎用データセットで事前トレーニングされている。
この記事では、マルチスケールモデリング、データ要件、評価指標とベンチマーク、信頼性と安全性など、PSE内でGenAIを完全に活用する上での潜在的な課題を特定し、議論する。
論文 参考訳(メタデータ) (2024-02-15T18:20:42Z) - Governance of Generative Artificial Intelligence for Companies [1.2818275315985972]
ジェネレーティブ・人工知能(GenAI)は、適切なガバナンスのない組織に素早く参入した。
GenAIの変革的な性質と規制措置に関する広範な議論にもかかわらず、限定的な研究は組織的なガバナンスに対処している。
本稿は、GenAIの基本的特徴をよりよく理解することを目的として、最近の研究を調査することで、このギャップを埋めるものである。
論文 参考訳(メタデータ) (2024-02-05T14:20:19Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Levels of AGI for Operationalizing Progress on the Path to AGI [64.59151650272477]
本稿では,人工知能(AGI)モデルとその前駆体の性能と動作を分類する枠組みを提案する。
このフレームワークは、AGIのパフォーマンス、一般性、自律性のレベルを導入し、モデルを比較し、リスクを評価し、AGIへの道筋に沿って進捗を測定する共通の言語を提供する。
論文 参考訳(メタデータ) (2023-11-04T17:44:58Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。