論文の概要: Institutional AI Sovereignty Through Gateway Architecture: Implementation Report from Fontys ICT
- arxiv url: http://arxiv.org/abs/2512.08978v1
- Date: Thu, 04 Dec 2025 12:41:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.238914
- Title: Institutional AI Sovereignty Through Gateway Architecture: Implementation Report from Fontys ICT
- Title(参考訳): ゲートウェイアーキテクチャによるInstitutional AIの信頼性:Fontys ICTによる実装報告
- Authors: Ruud Huijts, Koen Suilen,
- Abstract要約: フラグメンテーションされたハイリスクな商用AIツールの採用に対抗するため、私たちは6ヶ月の300人のパイロットで組織的なAIプラットフォームを構築し、運用しました。
ゲートウェイコアはポリシを強制し、アクセスと予算を制御し、デフォルトではEUインフラストラクチャへのトラフィックをルーティングする。
パイロットは、プライバシー上の問題や強力な採用を伴わず、EUのデフォルトルーティング、管理費、透明なモデル選択を確実に実行した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To counter fragmented, high-risk adoption of commercial AI tools, we built and ran an institutional AI platform in a six-month, 300-user pilot, showing that a university of applied sciences can offer advanced AI with fair access, transparent risks, controlled costs, and alignment with European law. Commercial AI subscriptions create unequal access and compliance risks through opaque processing and non-EU hosting, yet banning them is neither realistic nor useful. Institutions need a way to provide powerful AI in a sovereign, accountable form. Our solution is a governed gateway platform with three layers: a ChatGPT-style frontend linked to institutional identity that makes model choice explicit; a gateway core enforcing policy, controlling access and budgets, and routing traffic to EU infrastructure by default; and a provider layer wrapping commercial and open-source models in institutional model cards that consolidate vendor documentation into one governance interface. The pilot ran reliably with no privacy incidents and strong adoption, enabling EU-default routing, managed spending, and transparent model choices. Only the gateway pattern combines model diversity and rapid innovation with institutional control. The central insight: AI is not a support function but strategy, demanding dedicated leadership. Sustainable operation requires governance beyond traditional boundaries. We recommend establishing a formal AI Officer role combining technical literacy, governance authority, and educational responsibility. Without it, AI decisions stay ad-hoc and institutional exposure grows. With it, higher-education institutions can realistically operate their own multi-provider AI platform, provided they govern AI as seriously as they teach it.
- Abstract(参考訳): そこでは、応用科学の大学が、公正なアクセス、透明なリスク、コントロールされたコスト、ヨーロッパの法律との整合性を備えた高度なAIを提供することができることを示した。
商用AIサブスクリプションは、不透明な処理やEU以外のホスティングを通じて、不平等なアクセスとコンプライアンスのリスクを生み出す。
機関は、主権のある説明責任のある形で強力なAIを提供する方法が必要です。
当社のソリューションは,モデル選択を明示する機関IDにリンクされたChatGPTスタイルのフロントエンド,ポリシの実施,アクセスと予算のコントロール,EUインフラストラクチャへのトラフィックをデフォルトでルーティングするゲートウェイコア,ベンダドキュメントをひとつのガバナンスインターフェースに統合する機関モデルカードに,商用およびオープンソースモデルをラップするプロバイダレイヤという,3つのレイヤを備えた管理されたゲートウェイプラットフォームです。
パイロットは、プライバシー上の問題や強力な採用を伴わず、EUのデフォルトルーティング、管理費、透明なモデル選択を確実に実行した。
ゲートウェイパターンのみが、モデルの多様性と迅速なイノベーションと制度的なコントロールを組み合わせたものです。
中心的な洞察: AIはサポート機能ではなく、戦略であり、専用のリーダーシップを要求する。
持続可能な運用には、従来の境界を超えたガバナンスが必要です。
我々は、技術リテラシー、ガバナンス権限、教育責任を組み合わせた正式なAIオフィサーの役割を確立することを推奨する。
それなしでは、AIの判断は横ばいであり、機関の露出は増加する。
これにより、高等教育機関は、教える限りAIを真剣に管理すれば、独自の多目的AIプラットフォームを現実的に運用することができる。
関連論文リスト
- A Moral Agency Framework for Legitimate Integration of AI in Bureaucracies [0.0]
公務員官僚は人工知能(AI)の恩恵を享受しようとする
本稿では,官僚構造におけるAIの合法的な統合のための3点のモラルエージェンシー・フレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-11T17:49:19Z) - Development of management systems using artificial intelligence systems and machine learning methods for boards of directors (preprint, unofficial translation) [0.0]
この研究は、AIが意思決定支援ツールから自律的な意思決定者へと移行する、企業管理のパラダイムシフトに対処する。
主要な問題は、AI技術の開発が適切な法的および倫理的ガイドラインの作成をはるかに上回っていることである。
本研究は、企業経営における自律型AIシステムの開発と実装のための「参照モデル」を提案する。
論文 参考訳(メタデータ) (2025-08-05T04:01:22Z) - Generative AI for Autonomous Driving: Frontiers and Opportunities [145.6465312554513]
この調査は、自律運転スタックにおけるGenAIの役割の包括的合成を提供する。
まず、VAE、GAN、拡散モデル、および大規模言語モデルを含む、現代の生成モデリングの原則とトレードオフを蒸留することから始めます。
我々は、合成データ一般化、エンドツーエンド駆動戦略、高忠実なデジタルツインシステム、スマートトランスポートネットワーク、具体化されたAIへのクロスドメイン転送など、実用的な応用を分類する。
論文 参考訳(メタデータ) (2025-05-13T17:59:20Z) - Artificial Intelligence in Government: Why People Feel They Lose Control [44.99833362998488]
行政における人工知能の利用は急速に拡大している。
AIはより効率と応答性を約束するが、政府機能への統合は公正性、透明性、説明責任に関する懸念を提起する。
この記事では、デリゲートの特別事例として、AI導入に関するプリンシパル・エージェント理論を適用します。
論文 参考訳(メタデータ) (2025-05-02T07:46:41Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - How VADER is your AI? Towards a definition of artificial intelligence systems appropriate for regulation [39.58317527488534]
最近のAI規制提案では、ICT技術、アプローチ、AIではないシステムに影響を与えるAI定義が採用されている。
本稿では,AI定義の規制(VADER)が適切に定義されているかを評価するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-07T17:41:15Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Oversight for Frontier AI through a Know-Your-Customer Scheme for
Compute Providers [0.8547032097715571]
Know-Your-Customer (KYC) は、銀行部門がクライアントの識別と検証のために開発した標準である。
KYCは、既存の輸出管理におけるフロンティアAI開発とクローズループの監視を強化するメカニズムを提供するかもしれない。
AIチップの購入を制限する戦略とは異なり、計算へのデジタルアクセスを規制することは、より正確な制御を提供する。
論文 参考訳(メタデータ) (2023-10-20T16:17:29Z) - Trustworthy AI: From Principles to Practices [44.67324097900778]
多くの現在のAIシステムは、認識不能な攻撃に脆弱で、表現不足なグループに偏り、ユーザのプライバシ保護が欠如していることが判明した。
このレビューでは、信頼できるAIシステムを構築するための包括的なガイドとして、AI実践者に提供したいと思っています。
信頼に値するAIに対する現在の断片化されたアプローチを統合するために、AIシステムのライフサイクル全体を考慮した体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-10-04T03:20:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。