論文の概要: Model Sketching: Centering Concepts in Early-Stage Machine Learning
Model Design
- arxiv url: http://arxiv.org/abs/2303.02884v1
- Date: Mon, 6 Mar 2023 04:31:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 17:09:33.006458
- Title: Model Sketching: Centering Concepts in Early-Stage Machine Learning
Model Design
- Title(参考訳): モデルスケッチ: 早期機械学習モデル設計における概念中心
- Authors: Michelle S. Lam, Zixian Ma, Anne Li, Izequiel Freitas, Dakuo Wang,
James A. Landay, Michael S. Bernstein
- Abstract要約: マシンラーニングの実践者は、モデルアーキテクチャやパフォーマンスメトリクスといった、低レベルの技術的な詳細にたどり着きます。
本稿では,モデル決定の反復的かつ迅速な近似を行うための技術フレームワークであるモデルスケッチを紹介する。
- 参考スコア(独自算出の注目度): 29.775425128670573
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning practitioners often end up tunneling on low-level technical
details like model architectures and performance metrics. Could early model
development instead focus on high-level questions of which factors a model
ought to pay attention to? Inspired by the practice of sketching in design,
which distills ideas to their minimal representation, we introduce model
sketching: a technical framework for iteratively and rapidly authoring
functional approximations of a machine learning model's decision-making logic.
Model sketching refocuses practitioner attention on composing high-level,
human-understandable concepts that the model is expected to reason over (e.g.,
profanity, racism, or sarcasm in a content moderation task) using zero-shot
concept instantiation. In an evaluation with 17 ML practitioners, model
sketching reframed thinking from implementation to higher-level exploration,
prompted iteration on a broader range of model designs, and helped identify
gaps in the problem formulation$\unicode{x2014}$all in a fraction of the time
ordinarily required to build a model.
- Abstract(参考訳): マシンラーニングの実践者は、モデルアーキテクチャやパフォーマンスメトリクスなど、低レベルの技術的な詳細をトンネルすることが多い。
初期のモデル開発は、モデルが注意を払うべき要素について、ハイレベルな質問に集中できるだろうか?
デザインにおけるスケッチの実践に触発され、アイデアを最小限の表現に蒸留し、機械学習モデルの意思決定ロジックの関数近似を反復的かつ迅速に作成する技術フレームワークであるモデルスケッチを導入する。
モデルスケッチは、ゼロショット概念のインスタンス化を用いて、モデルが推論するであろう(例えば、コンテンツモデレーションタスクにおけるプロファニティ、人種差別、皮肉)ハイレベルな人間理解可能な概念の作成に、実践者の注意を再び向ける。
17人のML実践者による評価では、モデルスケッチは、実装からより高いレベルの探索へと再編成され、より広い範囲のモデル設計の反復を引き起こし、モデルを構築するのに通常必要とされる時間のごく一部で、問題の定式化におけるギャップの特定に役立った。
関連論文リスト
- Mining Frequent Structures in Conceptual Models [2.841785306638839]
本稿では,概念モデリング言語における頻繁な構造発見問題に対する一般的なアプローチを提案する。
我々は,頻繁な部分グラフマイニングアルゴリズムとグラフ操作手法を組み合わせる。
主な目的は、言語エンジニアのためのサポート施設を提供することである。
論文 参考訳(メタデータ) (2024-06-11T10:24:02Z) - Modeling Collaborator: Enabling Subjective Vision Classification With Minimal Human Effort via LLM Tool-Use [14.2527771630478]
本稿では,人間のラベリングを自然言語操作に置き換えることで,手作業の軽減を図る新しいフレームワークを提案する。
当社のフレームワークは,クラウドソースアノテーションの必要性を排除している。
トレーニングされたモデルは、従来のアジャイルモデリングや最先端のゼロショット分類モデルよりも優れています。
論文 参考訳(メタデータ) (2024-03-05T03:34:11Z) - Data-efficient Large Vision Models through Sequential Autoregression [58.26179273091461]
限られたデータセットに基づいて,効率的な自己回帰に基づく視覚モデルを構築する。
このモデルは,高レベル・低レベルのセマンティック理解の両方にまたがる視覚的タスクにおいて,その習熟度をいかに達成するかを実証する。
我々の経験的評価は、モデルが様々なタスクに適応する際の機敏さを強調し、パラメータフットプリントの大幅な削減を図った。
論文 参考訳(メタデータ) (2024-02-07T13:41:53Z) - ZhiJian: A Unifying and Rapidly Deployable Toolbox for Pre-trained Model
Reuse [59.500060790983994]
本稿では、PyTorchバックエンドを利用して、モデル再利用のための包括的でユーザフレンドリなツールボックスであるZhiJianを紹介する。
ZhiJianは、PTMによるターゲットアーキテクチャ構築、PTMによるターゲットモデルチューニング、およびPTMに基づく推論を含む、モデル再利用に関するさまざまな視点を統一する新しいパラダイムを提示している。
論文 参考訳(メタデータ) (2023-08-17T19:12:13Z) - fAIlureNotes: Supporting Designers in Understanding the Limits of AI
Models for Computer Vision Tasks [32.53515595703429]
fAIlureNotesはデザイナ中心の障害調査と分析ツールだ。
モデルの評価や、さまざまなユーザグループやシナリオにおける障害の特定において、デザイナをサポートする。
論文 参考訳(メタデータ) (2023-02-22T23:41:36Z) - Minimal Value-Equivalent Partial Models for Scalable and Robust Planning
in Lifelong Reinforcement Learning [56.50123642237106]
モデルに基づく強化学習における一般的な実践は、エージェントの環境のあらゆる側面をモデル化するモデルを学ぶことである。
このようなモデルは、生涯にわたる強化学習シナリオにおいて、スケーラブルで堅牢な計画を実行するのに特に適していない、と我々は主張する。
我々は,「最小値部分モデル」と呼ぶ,環境の関連する側面のみをモデル化する新しい種類のモデルを提案する。
論文 参考訳(メタデータ) (2023-01-24T16:40:01Z) - Prototype-guided Cross-task Knowledge Distillation for Large-scale
Models [103.04711721343278]
クロスタスクの知識蒸留は、競争力のあるパフォーマンスを得るために小さな学生モデルを訓練するのに役立ちます。
本稿では,大規模教師ネットワークの内在的ローカルレベルのオブジェクト知識を様々なタスクシナリオに転送するための,プロトタイプ誘導型クロスタスク知識蒸留(ProC-KD)アプローチを提案する。
論文 参考訳(メタデータ) (2022-12-26T15:00:42Z) - Foundation models in brief: A historical, socio-technical focus [2.5991265608180396]
ディープラーニングをスケールアップすることで、将来のAI開発には、ファンデーションモデルが破壊的になる可能性がある。
モデルは自然言語処理やコンピュータビジョンといった分野における様々なタスクにおいて最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-12-17T22:11:33Z) - Inter-model Interpretability: Self-supervised Models as a Case Study [0.2578242050187029]
テキスト・インター・モデル・インタプリタビリティを導入するためのDissectと呼ばれる最近の解釈可能性技術を構築した。
我々は、学習概念の観点から、モデル間の近さを明らかにする学習概念埋め込み空間に、トップパフォーマンスの自己教師型モデル13を投影する。
この実験により、モデルを3つのカテゴリに分類し、異なるタスクが必要とする視覚概念の種類を初めて明らかにしました。
論文 参考訳(メタデータ) (2022-07-24T22:50:18Z) - What Language Model Architecture and Pretraining Objective Work Best for
Zero-Shot Generalization? [50.84738303888189]
本稿では,モデル選択の大規模評価とそのゼロショット一般化への影響について述べる。
私たちは、70億以上のトークンに対して、50億以上のパラメータを持つモデルをトレーニングします。
事前学習した因果デコーダモデルを非因果デコーダモデルに効率的に適用できることが判明した。
論文 参考訳(メタデータ) (2022-04-12T14:19:49Z) - Model LEGO: Creating Models Like Disassembling and Assembling Building Blocks [53.09649785009528]
本稿では,新しいモデルを得るためのトレーニングを必要としないパラダイムについて検討する。
生体視覚系における受容野にインスパイアされたCNNの誕生と同様、モデル分解と組み立てを提案する。
モデル組立には、特定のタスクに適した新しいモデルを構築するために、アライメントパディング戦略とパラメータスケーリング戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T05:27:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。