論文の概要: Understanding with toy surrogate models in machine learning
- arxiv url: http://arxiv.org/abs/2410.05675v1
- Date: Tue, 8 Oct 2024 04:22:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-01 17:19:21.095920
- Title: Understanding with toy surrogate models in machine learning
- Title(参考訳): 機械学習におけるおもちゃ代理モデルの理解
- Authors: Andrés Páez,
- Abstract要約: 不透明な機械学習モデル(ML)を理解するために用いられる単純な代理モデルの中には、科学的な玩具モデルに類似しているものもある。
本稿では,このような単純なモデルの助けを借りて,不透明なMLモデルを世界規模で理解することの意味について述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In the natural and social sciences, it is common to use toy models -- extremely simple and highly idealized representations -- to understand complex phenomena. Some of the simple surrogate models used to understand opaque machine learning (ML) models, such as rule lists and sparse decision trees, bear some resemblance to scientific toy models. They allow non-experts to understand how an opaque ML model works globally via a much simpler model that highlights the most relevant features of the input space and their effect on the output. The obvious difference is that the common target of a toy and a full-scale model in the sciences is some phenomenon in the world, while the target of a surrogate model is another model. This essential difference makes toy surrogate models (TSMs) a new object of study for theories of understanding, one that is not easily accommodated under current analyses. This paper provides an account of what it means to understand an opaque ML model globally with the aid of such simple models.
- Abstract(参考訳): 自然科学や社会科学では、複雑な現象を理解するためにおもちゃのモデル(非常に単純で、非常に理想化された表現)を使うのが一般的である。
ルールリストやスパース決定ツリーのような不透明な機械学習モデル(ML)を理解するために使われる単純な代理モデルの中には、科学的な玩具モデルに類似しているものもある。
これらは、不透明なMLモデルが、入力空間の最も関連性の高い特徴と出力に対するそれらの影響を強調する、はるかに単純なモデルを介して、世界規模でどのように機能するかを理解することを可能にする。
明らかな違いは、おもちゃの一般的なターゲットと科学におけるフルスケールモデルが世界で何らかの現象であり、代理モデルのターゲットが別のモデルであることだ。
この本質的な違いは、おもちゃ代理モデル(TSM)を理解論の新しい研究対象とし、これは現在の分析では容易には受け入れられない。
本稿では,このような単純なモデルの助けを借りて,不透明なMLモデルを世界規模で理解することの意味について述べる。
関連論文リスト
- What Matters for Model Merging at Scale? [94.26607564817786]
モデルマージは、複数の専門家モデルとより有能な単一モデルを組み合わせることを目的としている。
これまでの研究は主に、いくつかの小さなモデルをマージすることに焦点を当ててきた。
本研究は,大規模モデルマージの有用性を体系的に評価する。
論文 参考訳(メタデータ) (2024-10-04T17:17:19Z) - LLAVADI: What Matters For Multimodal Large Language Models Distillation [77.73964744238519]
本研究では,新しい効率的なモデル構造を提案するのではなく,スクラッチから小規模MLLMを訓練する。
本研究は, 知識蒸留プロセスにおける学習戦略, モデル選択, 蒸留アルゴリズムに関するものである。
異なるベンチマークと適切な戦略を評価することで、2.7Bの小型モデルでも7Bまたは13Bのパラメータを持つ大型モデルと同等に動作することができる。
論文 参考訳(メタデータ) (2024-07-28T06:10:47Z) - Direct and inverse modeling of soft robots by learning a condensed FEM
model [3.4696964555947694]
本稿では,コンパクトだが十分にリッチな機械表現を得るための学習に基づく手法を提案する。
2本の柔らかい指からなるグリップの例で、特に個別に学習したモデルをどう組み合わせるかを示す。
この研究は、ソフトロボットの組込み制御だけでなく、その設計にも新たな視点を開放する。
論文 参考訳(メタデータ) (2023-07-21T08:07:16Z) - Scaling Vision-Language Models with Sparse Mixture of Experts [128.0882767889029]
提案手法は, 等価計算コストの高密度モデルに対して, 様々なベンチマークにおいて, 最先端性能を実現することができることを示す。
我々の研究は、MoEモデルのトレーニングの安定化、モデル解釈可能性に対するMoEの影響の理解、ビジョン言語モデルをスケールする際の計算性能間のトレードオフのバランスに関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2023-03-13T16:00:31Z) - Synthetic Model Combination: An Instance-wise Approach to Unsupervised
Ensemble Learning [92.89846887298852]
ラベル付きデータのトレーニングセットから学ぶ機会のない、新しいテストデータに対する予測を検討する。
専門家モデルのセットと予測へのアクセスと、トレーニングに使用するデータセットに関する制限された情報を提供すること。
論文 参考訳(メタデータ) (2022-10-11T10:20:31Z) - Scientific Inference With Interpretable Machine Learning: Analyzing Models to Learn About Real-World Phenomena [4.312340306206884]
解釈可能な機械学習は、モデルを論理的に分析して解釈を導出することで解を提供する。
現在のIML研究は、科学的推論にMLモデルを活用するのではなく、MLモデルの監査に重点を置いている。
本稿では、モデルだけでなく、その表現する現象を照らし出すIMLメソッドを定式化した「プロパティ記述子」を設計するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-11T10:13:21Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Automated Dissipation Control for Turbulence Simulation with Shell
Models [1.675857332621569]
機械学習(ML)技術の応用、特にニューラルネットワークは、画像や言語を処理する上で大きな成功を収めています。
本研究は,Gledzer-Ohkitani-yamadaシェルモデルを用いて,乱流の簡易表現を構築する。
本稿では,自己相似慣性範囲スケーリングなどの乱流の統計的特性を再構築する手法を提案する。
論文 参考訳(メタデータ) (2022-01-07T15:03:52Z) - Building Accurate Simple Models with Multihop [13.182955266765653]
本稿では,複雑なモデルから単純なモデルへ情報を伝達するメタアプローチを提案する。
提案手法では, 前述した手法のいずれかを用いて, 連続したモデル間で情報を伝達することができる。
実データに関する実験では、1ホップ以上のモデルの異なる選択に対して一貫した利得が得られることが観察された。
論文 参考訳(メタデータ) (2021-09-14T20:39:11Z) - Model-agnostic multi-objective approach for the evolutionary discovery
of mathematical models [55.41644538483948]
現代のデータ科学では、どの部分がより良い結果を得るために置き換えられるかというモデルの性質を理解することがより興味深い。
合成データ駆動型モデル学習において,多目的進化最適化を用いてアルゴリズムの所望特性を求める。
論文 参考訳(メタデータ) (2021-07-07T11:17:09Z) - Lifting Interpretability-Performance Trade-off via Automated Feature
Engineering [5.802346990263708]
複雑なブラックボックス予測モデルは高い性能を持つが、解釈可能性の欠如は問題を引き起こす。
本稿では, 弾性ブラックボックスを代理モデルとして用いて, よりシンプルで不透明で, 正確かつ解釈可能なガラスボックスモデルを作成する方法を提案する。
論文 参考訳(メタデータ) (2020-02-11T09:16:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。