論文の概要: Penzai + Treescope: A Toolkit for Interpreting, Visualizing, and Editing Models As Data
- arxiv url: http://arxiv.org/abs/2408.00211v1
- Date: Thu, 1 Aug 2024 00:45:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-04 22:04:56.503869
- Title: Penzai + Treescope: A Toolkit for Interpreting, Visualizing, and Editing Models As Data
- Title(参考訳): Penzai + Treescope: モデルをデータとして解釈、視覚化、編集するためのツールキット
- Authors: Daniel D. Johnson,
- Abstract要約: Penzaiは、モデル操作を簡単にするためのニューラルネットワークライブラリである。
Treescopeはインタラクティブなビュートプリンダーであり、モデルインプット/アウトプットとモデル自体を視覚化できる配列ビジュアライザである。
- 参考スコア(独自算出の注目度): 3.1138391937813776
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Much of today's machine learning research involves interpreting, modifying or visualizing models after they are trained. I present Penzai, a neural network library designed to simplify model manipulation by representing models as simple data structures, and Treescope, an interactive pretty-printer and array visualizer that can visualize both model inputs/outputs and the models themselves. Penzai models are built using declarative combinators that expose the model forward pass in the structure of the model object itself, and use named axes to ensure each operation is semantically meaningful. With Penzai's tree-editing selector system, users can both insert and replace model components, allowing them to intervene on intermediate values or make other edits to the model structure. Users can then get immediate feedback by visualizing the modified model with Treescope. I describe the motivation and main features of Penzai and Treescope, and discuss how treating the model as data enables a variety of analyses and interventions to be implemented as data-structure transformations, without requiring model designers to add explicit hooks.
- Abstract(参考訳): 今日の機械学習研究の多くは、トレーニング後のモデルの解釈、修正、視覚化を含む。
モデルを単純なデータ構造として表現することで、モデル操作を簡単にするためのニューラルネットワークライブラリであるPenzaiと、モデルインプット/アウトプットとモデル自体を視覚化可能なインタラクティブなビューアと配列ビジュアライザであるTreescopeを紹介します。
Penzaiモデルは宣言的コンビネータを使用して構築され、モデルオブジェクト自体の構造にモデルフォワードパスを公開し、各操作が意味論的に意味があることを保証するために名前付きxを使用する。
Penzaiのツリー編集セレクタシステムでは、モデルコンポーネントの挿入と置換が可能である。
修正されたモデルをTreescopeで視覚化することで、ユーザはすぐにフィードバックを受け取ることができる。
本稿では、PenzaiとTreescopeのモチベーションと主な特徴について述べるとともに、モデル設計者が明示的なフックを追加することなく、データ構造変換として様々な分析と介入を実現する方法について論じる。
関連論文リスト
- Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - Decomposing and Editing Predictions by Modeling Model Computation [75.37535202884463]
コンポーネントモデリングというタスクを導入します。
コンポーネントモデリングの目標は、MLモデルの予測をコンポーネントの観点から分解することだ。
コンポーネント属性を推定するスケーラブルなアルゴリズムであるCOARを提案する。
論文 参考訳(メタデータ) (2024-04-17T16:28:08Z) - Slot Structured World Models [0.0]
最先端のアプローチでは、フィードフォワードエンコーダを使用して、オブジェクトの埋め込みを抽出し、潜在グラフニューラルネットワークを使用して、オブジェクトの埋め込み間の相互作用をモデル化する。
Slot Structured World Models (SSWM)は、オブジェクト中心のエンコーダと潜在グラフベースの動的モデルを組み合わせた世界モデルのクラスである。
論文 参考訳(メタデータ) (2024-01-08T21:19:30Z) - Sequential Modeling Enables Scalable Learning for Large Vision Models [120.91839619284431]
本稿では,言語データを用いずにLVM(Large Vision Model)を学習できる新しい逐次モデリング手法を提案する。
我々は、生画像やビデオや注釈付きデータソースを表現できる共通フォーマット「視覚文」を定義した。
論文 参考訳(メタデータ) (2023-12-01T18:59:57Z) - Flexible Model Interpretability through Natural Language Model Editing [29.547086048644545]
人的関心の概念に関して、モデル行動を体系的に編集することができる。
このエディターメソッドは、内部表現をより解釈しやすいものにするのに役立つ。
論文 参考訳(メタデータ) (2023-11-17T23:02:42Z) - Rewriting Geometric Rules of a GAN [32.22250082294461]
現在の機械学習アプローチでは、創造的なプロセスの重要な要素を見逃している。
我々は、ユーザが所望の幾何学的変化を伴う少数のオリジナルのモデル出力を編集することで、与えられたモデルを「ワープ」できるようにします。
提案手法により,ユーザが定義した幾何学的変化を伴って無限オブジェクトを合成するモデルを作成し,大規模データセットの計算を伴わずに新たな生成モデルを作成することができる。
論文 参考訳(メタデータ) (2022-07-28T17:59:36Z) - Model LEGO: Creating Models Like Disassembling and Assembling Building Blocks [53.09649785009528]
本稿では,新しいモデルを得るためのトレーニングを必要としないパラダイムについて検討する。
生体視覚系における受容野にインスパイアされたCNNの誕生と同様、モデル分解と組み立てを提案する。
モデル組立には、特定のタスクに適した新しいモデルを構築するために、アライメントパディング戦略とパラメータスケーリング戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T05:27:28Z) - Improving Label Quality by Jointly Modeling Items and Annotators [68.8204255655161]
雑音アノテータから基底真理ラベルを学習するための完全ベイズ的枠組みを提案する。
我々のフレームワークは、ラベル分布上の生成的ベイズソフトクラスタリングモデルを古典的なDavidとSkeneのジョイントアノテータデータモデルに分解することでスケーラビリティを保証する。
論文 参考訳(メタデータ) (2021-06-20T02:15:20Z) - CoSE: Compositional Stroke Embeddings [52.529172734044664]
本稿では、ストロークベースの描画タスクのような複雑な自由形式構造に対する生成モデルを提案する。
我々のアプローチは、自動補完図のようなインタラクティブなユースケースに適している。
論文 参考訳(メタデータ) (2020-06-17T15:22:54Z) - ViCE: Visual Counterfactual Explanations for Machine Learning Models [13.94542147252982]
本稿では,対話型視覚分析ツールViCEを提案する。
結果が視覚インターフェースに効果的に表示され、そのデータとモデルを探索するための対話的手法が提供される。
論文 参考訳(メタデータ) (2020-03-05T04:43:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。