論文の概要: Defining AI Models and AI Systems: A Framework to Resolve the Boundary Problem
- arxiv url: http://arxiv.org/abs/2603.10023v1
- Date: Sun, 22 Feb 2026 16:22:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-15 16:38:22.579393
- Title: Defining AI Models and AI Systems: A Framework to Resolve the Boundary Problem
- Title(参考訳): AIモデルとAIシステムの定義: 境界問題の解決のためのフレームワーク
- Authors: Yuanyuan Sun, Timothy Parker, Lara Gierschmann, Sana Shams, Teo Canmetin, Mathieu Duteil, Rokas Gipiškis, Ze Shen Chin,
- Abstract要約: 既存の定義を複数の概念的視点から分析する。
本稿では,モデルとシステムの性質を基礎とした概念定義を提案する。
規制実施の意義について論じる。
- 参考スコア(独自算出の注目度): 3.457945699312823
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Emerging AI regulations assign distinct obligations to different actors along the AI value chain (e.g., the EU AI Act distinguishes providers and deployers for both AI models and AI systems), yet the foundational terms "AI model" and "AI system" lack clear, consistent definitions. Through a systematic review of 896 academic papers and a manual review of over 80 regulatory, standards, and technical or policy documents, we analyze existing definitions from multiple conceptual perspectives. We then trace definitional lineages and paradigm shifts over time, finding that most standards and regulatory definitions derive from the OECD's frameworks, which evolved in ways that compounded rather than resolved conceptual ambiguities. The ambiguity of the boundary between an AI model and an AI system creates practical difficulties in determining obligations for different actors, and raises questions on whether certain modifications performed are specific to the model as opposed to the non-model system components. We propose conceptual definitions grounded in the nature of models and systems and the relationship between them, then develop operational definitions for contemporary neural network-based machine-learning AI: models consist of trained parameters and architecture, while systems consist of the model plus additional components including an interface for processing inputs and outputs. Finally, we discuss implications for regulatory implementation and examine how our definitions contribute to resolving ambiguities in allocating responsibilities across the AI value chain, in both theoretical scenarios and case studies involving real-world incidents.
- Abstract(参考訳): 新興AI規制は、AIバリューチェーンに沿って異なるアクターに異なる義務を割り当てる(例えば、EU AI ActはAIモデルとAIシステムの両方のプロバイダとデプロイを区別する)が、基本的な用語である「AIモデル」と「AIシステム」には明確な一貫した定義がない。
896の学術論文の体系的レビューと80以上の規制、標準、技術または政策文書のマニュアルレビューを通じて、我々は既存の定義を複数の概念的視点から分析する。
そして、時間とともに定義の系統やパラダイムの変化を辿り、ほとんどの標準や規制定義がOECDのフレームワークから派生していることを発見し、概念的曖昧さを解決するのではなく、複雑な方法で進化した。
AIモデルとAIシステムの境界の曖昧さは、異なるアクターに対する義務を決定するための実践的な困難を生み出し、実行された特定の修正が、非モデルシステムコンポーネントとは対照的に、モデルに固有のものであるかどうかという疑問を提起する。
モデルとシステムの性質とそれらの関係を基礎とした概念定義を提案し、その後、現代のニューラルネットワークに基づく機械学習AIの運用定義を開発する:モデルは訓練されたパラメータとアーキテクチャで構成され、システムはモデルと入力と出力を処理するインターフェースを含む追加コンポーネントから構成される。
最後に、我々の定義がAIバリューチェーン全体の責任を割り当てるあいまいさの解決にどのように貢献するかを、現実のインシデントを含む理論的シナリオとケーススタディの両方で議論する。
関連論文リスト
- Interpreting Agentic Systems: Beyond Model Explanations to System-Level Accountability [0.6745502291821954]
エージェントシステムは、ゴール指向の振る舞いを持つ自律システムを構築するために、大規模言語モデルをどのように活用するかを変えてきた。
主に静的モデルのために開発された現在の解釈可能性技術は、エージェントシステムに適用する際の制限を示す。
本稿では,エージェントシステムにおける既存の解釈可能性手法の適合性と限界について検討する。
論文 参考訳(メタデータ) (2026-01-23T21:05:32Z) - Rethinking Data Protection in the (Generative) Artificial Intelligence Era [138.07763415496288]
現代の(生産的な)AIモデルやシステムに生じる多様な保護ニーズを捉える4段階の分類法を提案する。
当社のフレームワークは、データユーティリティとコントロールのトレードオフに関する構造化された理解を提供し、AIパイプライン全体にわたっています。
論文 参考訳(メタデータ) (2025-07-03T02:45:51Z) - Explainable AI Systems Must Be Contestable: Here's How to Make It Happen [2.5875936082584623]
本稿では、説明可能なAIにおける競合性の最初の厳密な形式的定義について述べる。
我々は、ヒューマン中心のインターフェース、技術プロセス、組織アーキテクチャにまたがる、設計やポストホックメカニズムのモジュール化されたフレームワークを紹介します。
私たちの作業は実践者に、真のリコースと説明責任をAIシステムに組み込むためのツールを提供しています。
論文 参考訳(メタデータ) (2025-06-02T13:32:05Z) - The Switch, the Ladder, and the Matrix: Models for Classifying AI Systems [0.0]
AI倫理の原則と実践の間にはまだギャップがある。
AI倫理を運用しようとする組織が直面する大きな障害のひとつは、明確に定義された材料スコープの欠如である。
論文 参考訳(メタデータ) (2024-07-07T12:16:01Z) - Bridging the Global Divide in AI Regulation: A Proposal for a Contextual, Coherent, and Commensurable Framework [0.9622882291833615]
本稿では、人工知能(AI)を制御するための文脈的・一貫性的・包括的枠組み(3C)を提案する。
コンテキスト性を確保するため、このフレームワークはAIライフサイクルを、基礎や汎用モデルを定義するのではなく、特定のタスクの学習とデプロイという2つのフェーズに分岐させる。
コンメンサビリティを確保するため、この枠組みはリスクの測定と緩和のための国際標準の採用を促進する。
論文 参考訳(メタデータ) (2023-03-20T15:23:40Z) - Responsible AI Pattern Catalogue: A Collection of Best Practices for AI
Governance and Engineering [20.644494592443245]
MLR(Multivocal Literature Review)の結果に基づく応答性AIパターンカタログを提案する。
原則やアルゴリズムのレベルにとどまらず、私たちは、AIシステムのステークホルダーが実際に行なえるパターンに注目して、開発済みのAIシステムがガバナンスとエンジニアリングライフサイクル全体を通して責任を負うようにします。
論文 参考訳(メタデータ) (2022-09-12T00:09:08Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Towards an Interface Description Template for AI-enabled Systems [77.34726150561087]
再利用(Reuse)は、システムアーキテクチャを既存のコンポーネントでインスタンス化しようとする、一般的なシステムアーキテクチャのアプローチである。
現在、コンポーネントが当初目的としていたものと異なるシステムで運用する可搬性を評価するために必要な情報の選択をガイドするフレームワークは存在しない。
我々は、AI対応コンポーネントの主情報をキャプチャするインターフェイス記述テンプレートの確立に向けて、現在進行中の作業について述べる。
論文 参考訳(メタデータ) (2020-07-13T20:30:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。