論文の概要: A Framework for Situating Innovations, Opportunities, and Challenges in Advancing Vertical Systems with Large AI Models
- arxiv url: http://arxiv.org/abs/2504.02793v1
- Date: Thu, 03 Apr 2025 17:40:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-04 12:58:38.648202
- Title: A Framework for Situating Innovations, Opportunities, and Challenges in Advancing Vertical Systems with Large AI Models
- Title(参考訳): 大規模AIモデルによる垂直システムの革新・機会・課題の選定のためのフレームワーク
- Authors: Gaurav Verma, Jiawei Zhou, Mohit Chandra, Srijan Kumar, Munmun De Choudhury,
- Abstract要約: 大規模なAIモデルは、医療、教育、法律など、高度な分野に展開されている。
これらの課題は、モデルの能力と現実世界のアプリケーションのニーズを整合させるために、学際的な革新を必要とします。
我々は,ユーザの要求を満たすためのイノベーションを階層的に抽象化することで,このギャップに対処するフレームワークを導入する。
- 参考スコア(独自算出の注目度): 32.49967216916497
- License:
- Abstract: Large artificial intelligence (AI) models have garnered significant attention for their remarkable, often "superhuman", performance on standardized benchmarks. However, when these models are deployed in high-stakes verticals such as healthcare, education, and law, they often reveal notable limitations. For instance, they exhibit brittleness to minor variations in input data, present contextually uninformed decisions in critical settings, and undermine user trust by confidently producing or reproducing inaccuracies. These challenges in applying large models necessitate cross-disciplinary innovations to align the models' capabilities with the needs of real-world applications. We introduce a framework that addresses this gap through a layer-wise abstraction of innovations aimed at meeting users' requirements with large models. Through multiple case studies, we illustrate how researchers and practitioners across various fields can operationalize this framework. Beyond modularizing the pipeline of transforming large models into useful "vertical systems", we also highlight the dynamism that exists within different layers of the framework. Finally, we discuss how our framework can guide researchers and practitioners to (i) optimally situate their innovations (e.g., when vertical-specific insights can empower broadly impactful vertical-agnostic innovations), (ii) uncover overlooked opportunities (e.g., spotting recurring problems across verticals to develop practically useful foundation models instead of chasing benchmarks), and (iii) facilitate cross-disciplinary communication of critical challenges (e.g., enabling a shared vocabulary for AI developers, domain experts, and human-computer interaction scholars).
- Abstract(参考訳): 大規模な人工知能(AI)モデルは、標準化されたベンチマークのパフォーマンスにおいて、際立った、しばしば「超人」として大きな注目を集めている。
しかし、これらのモデルが医療、教育、法律などの高額な分野に配備されると、しばしば顕著な限界が明らかになる。
例えば、入力データの小さなバリエーションに対して脆さを示し、重要な設定において文脈的に非インフォームドな決定を提示し、不正確さを確実に生成または再現することでユーザの信頼を損なう。
大規模なモデルを適用する際のこれらの課題は、モデルの能力と現実世界のアプリケーションのニーズを整合させるために、学際的な革新を必要とします。
大規模なモデルでユーザの要求を満たすことを目的としたイノベーションを階層的に抽象化することで、このギャップに対処するフレームワークを導入します。
複数のケーススタディを通じて、様々な分野の研究者や実践者がどのようにこのフレームワークを運用できるかを説明します。
大きなモデルを有用な“垂直システム”に変換するパイプラインをモジュール化するだけでなく、フレームワークのさまざまなレイヤに存在するダイナミズムも強調します。
最後に、我々のフレームワークが研究者や実践者をどのように導くかについて議論する。
(i)イノベーションを最適に整える(例えば、垂直特有の洞察が広範囲に影響を及ぼす垂直非依存のイノベーションに力を与えることができる場合)
(i)見過ごされた機会(例えば、ベンチマークを追及する代わりに実用的に有用な基礎モデルを開発するために、複数の分野にまたがって繰り返し発生する問題を発見)、そして
第三に、重要な課題(例えば、AI開発者、ドメインエキスパート、人間とコンピュータの相互作用学者の共用語彙)の学際的なコミュニケーションを促進すること。
関連論文リスト
- Explanation, Debate, Align: A Weak-to-Strong Framework for Language Model Generalization [0.6629765271909505]
本稿では,言語モデルにおける弱強一般化によるモデルアライメントの新たなアプローチを提案する。
このファシリテーションに基づくアプローチは、モデルの性能を高めるだけでなく、モデルアライメントの性質に関する洞察も提供することを示唆している。
論文 参考訳(メタデータ) (2024-09-11T15:16:25Z) - Generalist Multimodal AI: A Review of Architectures, Challenges and Opportunities [5.22475289121031]
マルチモーダルモデルは、人工知能の今後の進歩にとって重要な要素であると期待されている。
この研究は、新しいアーキテクチャと特定の分類学を訓練することで、一般のマルチモーダルモデルに対する新たな視点を提供する。
論文 参考訳(メタデータ) (2024-06-08T15:30:46Z) - LVLM-Interpret: An Interpretability Tool for Large Vision-Language Models [50.259006481656094]
本稿では,大規模視覚言語モデルの内部メカニズムの理解を目的とした対話型アプリケーションを提案する。
このインタフェースは, 画像パッチの解釈可能性を高めるために設計されており, 応答の生成に有効である。
本稿では,一般的な大規模マルチモーダルモデルであるLLaVAにおける障害機構の理解に,アプリケーションがどのように役立つかのケーススタディを示す。
論文 参考訳(メタデータ) (2024-04-03T23:57:34Z) - On the Challenges and Opportunities in Generative AI [157.96723998647363]
私たちは、現在の大規模な生成AIモデルは、ドメイン間で広く採用されるのを妨げるいくつかの根本的な欠点を示しています。
我々は、研究者に実りある研究の方向性を探るための洞察を提供することを目標とし、より堅牢でアクセスしやすい生成AIソリューションの開発を促進する。
論文 参考訳(メタデータ) (2024-02-28T15:19:33Z) - Foundation Models for Decision Making: Problems, Methods, and
Opportunities [124.79381732197649]
大規模に多様なデータに基づいて事前訓練された基礎モデルは、幅広いビジョンと言語タスクにおいて異常な能力を示してきた。
ファンデーションモデルをトレーニングし、他のエージェントと対話し、長期的な推論を行うための新しいパラダイムが生まれている。
基礎モデルと意思決定の交わりにおける研究は、強力な新しいシステムを作るための大きな約束である。
論文 参考訳(メタデータ) (2023-03-07T18:44:07Z) - ComplAI: Theory of A Unified Framework for Multi-factor Assessment of
Black-Box Supervised Machine Learning Models [6.279863832853343]
ComplAIは、説明可能性、堅牢性、パフォーマンス、公正性、モデル行動を有効にし、観察し、分析し、定量化するユニークなフレームワークである。
教師付き機械学習モデルの評価は、正しい予測を行う能力だけでなく、全体的な責任の観点から行う。
論文 参考訳(メタデータ) (2022-12-30T08:48:19Z) - DIME: Fine-grained Interpretations of Multimodal Models via Disentangled
Local Explanations [119.1953397679783]
我々は,マルチモーダルモデルの解釈における最先端化に注力する。
提案手法であるDIMEは,マルチモーダルモデルの高精度かつきめ細かな解析を可能にする。
論文 参考訳(メタデータ) (2022-03-03T20:52:47Z) - INTERN: A New Learning Paradigm Towards General Vision [117.3343347061931]
我々はInterNという新しい学習パラダイムを開発した。
複数の段階の複数のソースからの監視信号を用いて学習することにより、トレーニング対象のモデルは強力な一般化性を生み出す。
ほとんどの場合、ターゲットドメインのトレーニングデータの10%しか適応していないモデルが、完全なデータセットでトレーニングされたトレーニングデータよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T18:42:50Z) - SEEK: Segmented Embedding of Knowledge Graphs [77.5307592941209]
本稿では,モデル複雑性を増大させることなく,高い競争力を持つ関係表現性を実現する軽量なモデリングフレームワークを提案する。
本フレームワークは,評価関数の設計に重点を置いており,1)十分な特徴相互作用の促進,2)関係の対称性と反対称性の両特性の保存,という2つの重要な特徴を強調している。
論文 参考訳(メタデータ) (2020-05-02T15:15:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。