論文の概要: A conceptual model for leaving the data-centric approach in machine
learning
- arxiv url: http://arxiv.org/abs/2302.03361v1
- Date: Tue, 7 Feb 2023 10:06:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-08 16:52:31.166775
- Title: A conceptual model for leaving the data-centric approach in machine
learning
- Title(参考訳): 機械学習におけるデータ中心的アプローチのコンセプトモデル
- Authors: Sebastian Scher, Bernhard Geiger, Simone Kopeinik, Andreas Tr\"ugler,
Dominik Kowald
- Abstract要約: 機械学習モデルに外部制約を含む方法が提案されている。
本稿では,これらのアプローチを共通言語で統一する概念的高レベルモデルについて論じる。
- 参考スコア(独自算出の注目度): 1.24245398967236
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For a long time, machine learning (ML) has been seen as the abstract problem
of learning relationships from data independent of the surrounding settings.
This has recently been challenged, and methods have been proposed to include
external constraints in the machine learning models. These methods usually come
from application-specific fields, such as de-biasing algorithms in the field of
fairness in ML or physical constraints in the fields of physics and
engineering. In this paper, we present and discuss a conceptual high-level
model that unifies these approaches in a common language. We hope that this
will enable and foster exchange between the different fields and their
different methods for including external constraints into ML models, and thus
leaving purely data-centric approaches.
- Abstract(参考訳): 機械学習(ML)は、長い間、周囲の設定に依存しないデータから関係を学習する抽象的な問題と見なされてきた。
これは最近問題視され、機械学習モデルに外部制約を含む方法が提案されている。
これらの手法は通常、MLの公平性の分野におけるデバイアスアルゴリズムや、物理学や工学の分野における物理的制約など、アプリケーション固有の分野から来る。
本稿では,これらのアプローチを共通言語で統一する概念的ハイレベルモデルを提案し,議論する。
これにより、異なるフィールドと異なるメソッド間の交換を可能にし、MLモデルに外部制約を含め、純粋にデータ中心のアプローチを残すことを期待しています。
関連論文リスト
- Model Merging in LLMs, MLLMs, and Beyond: Methods, Theories, Applications and Opportunities [89.40778301238642]
モデルマージは、機械学習コミュニティにおける効率的なエンパワーメント技術である。
これらの手法の体系的かつ徹底的なレビューに関する文献には大きなギャップがある。
論文 参考訳(メタデータ) (2024-08-14T16:58:48Z) - Unified Explanations in Machine Learning Models: A Perturbation Approach [0.0]
XAIとモデリング技術の不整合は、これらの説明可能性アプローチの有効性に疑念を投げかけるという望ましくない効果をもたらす可能性がある。
我々はXAI, SHapley Additive exPlanations (Shap) において, 一般的なモデルに依存しない手法に対する系統的摂動解析を提案する。
我々は、一般的な機械学習とディープラーニングの手法のスイートと、静的ケースホールドで生成された説明の正確さを定量化するためのメトリクスの中で、動的推論の設定において、相対的な特徴重要度を生成するアルゴリズムを考案した。
論文 参考訳(メタデータ) (2024-05-30T16:04:35Z) - Masked Modeling for Self-supervised Representation Learning on Vision
and Beyond [69.64364187449773]
仮面モデリングは、トレーニング中に比例的にマスキングされる元のデータの一部を予測する、独特なアプローチとして現れてきた。
マスクモデリングにおけるテクニックの詳細については,多様なマスキング戦略,ターゲット回復,ネットワークアーキテクチャなどについて詳述する。
我々は、現在の手法の限界について議論し、マスクモデリング研究を進めるためのいくつかの道のりを指摘した。
論文 参考訳(メタデータ) (2023-12-31T12:03:21Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - MinT: Boosting Generalization in Mathematical Reasoning via Multi-View
Fine-Tuning [53.90744622542961]
数学領域における推論は、小言語モデル(LM)にとって重要な課題である。
多様なアノテーションスタイルで既存の数学的問題データセットを利用する新しい手法を提案する。
実験結果から,LLaMA-7Bモデルが先行手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-07-16T05:41:53Z) - Foundation Models for Decision Making: Problems, Methods, and
Opportunities [124.79381732197649]
大規模に多様なデータに基づいて事前訓練された基礎モデルは、幅広いビジョンと言語タスクにおいて異常な能力を示してきた。
ファンデーションモデルをトレーニングし、他のエージェントと対話し、長期的な推論を行うための新しいパラダイムが生まれている。
基礎モデルと意思決定の交わりにおける研究は、強力な新しいシステムを作るための大きな約束である。
論文 参考訳(メタデータ) (2023-03-07T18:44:07Z) - An Introduction to Machine Unlearning [0.6649973446180738]
我々は、7つの最先端の機械学習アルゴリズムを要約し、比較する。
この分野で使用される中核概念の定義を集約する。
本稿では,機械学習を実践する際の課題について論じる。
論文 参考訳(メタデータ) (2022-09-02T10:24:50Z) - Panoramic Learning with A Standardized Machine Learning Formalism [116.34627789412102]
本稿では,多様なMLアルゴリズムの統一的な理解を提供する学習目的の標準化された方程式を提案する。
また、新しいMLソリューションのメカニック設計のガイダンスも提供し、すべての経験を持つパノラマ学習に向けた有望な手段として機能する。
論文 参考訳(メタデータ) (2021-08-17T17:44:38Z) - A Perspective on Machine Learning Methods in Turbulence Modelling [0.0]
本研究は,データ駆動型乱流閉鎖モデルの研究の現状を概観する。
トレーニングデータ、モデル、基礎となる物理、離散化の一貫性は、ML強化モデリング戦略の成功のために考慮すべき重要な問題である、と強調する。
論文 参考訳(メタデータ) (2020-10-23T08:19:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。