論文の概要: The games we play: critical complexity improves machine learning
- arxiv url: http://arxiv.org/abs/2205.08922v1
- Date: Wed, 18 May 2022 13:37:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 17:02:46.025225
- Title: The games we play: critical complexity improves machine learning
- Title(参考訳): プレイするゲーム: 重要な複雑さは機械学習を改善する
- Authors: Abeba Birhane, David J. T. Sumpter
- Abstract要約: 機械学習のベストプラクティスは、合理主義的で壮大な物語よりも、決定的な複雑性の観点から一致すべきである、と私たちは主張する。
MLコミュニティでプレイされている13の「ゲーム」は、モデルに偽の正当性を与え、人工知能の能力に関する過剰な宣伝と誇大宣伝に寄与し、不平等を悪化させ差別を引き起こすモデルに繋がる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When mathematical modelling is applied to capture a complex system, multiple
models are often created that characterize different aspects of that system.
Often, a model at one level will produce a prediction which is contradictory at
another level but both models are accepted because they are both useful. Rather
than aiming to build a single unified model of a complex system, the modeller
acknowledges the infinity of ways of capturing the system of interest, while
offering their own specific insight. We refer to this pragmatic applied
approach to complex systems -- one which acknowledges that they are
incompressible, dynamic, nonlinear, historical, contextual, and value-laden --
as Open Machine Learning (Open ML). In this paper we define Open ML and
contrast it with some of the grand narratives of ML of two forms: 1) Closed ML,
ML which emphasizes learning with minimal human input (e.g. Google's AlphaZero)
and 2) Partially Open ML, ML which is used to parameterize existing models. To
achieve this, we use theories of critical complexity to both evaluate these
grand narratives and contrast them with the Open ML approach. Specifically, we
deconstruct grand ML `theories' by identifying thirteen 'games' played in the
ML community. These games lend false legitimacy to models, contribute to
over-promise and hype about the capabilities of artificial intelligence, reduce
wider participation in the subject, lead to models that exacerbate inequality
and cause discrimination and ultimately stifle creativity in research. We argue
that best practice in ML should be more consistent with critical complexity
perspectives than with rationalist, grand narratives.
- Abstract(参考訳): 複雑なシステムを捉えるために数学的モデリングを適用する場合、そのシステムの異なる側面を特徴づける複数のモデルがしばしば作成される。
しばしば、あるレベルでのモデルは別のレベルで矛盾する予測を生成するが、どちらのモデルもどちらも有用であるため受け入れられる。
複雑なシステムの単一の統一モデルを構築するのではなく、モデルラーは興味のあるシステムを捉える方法の無限性を認めながら、独自の洞察を提供する。
オープン機械学習(Open ML, Open Machine Learning, Open ML)は、それらが非圧縮性、動的、非線形、歴史的、文脈的、およびバリューラデンであることを認めている。
本稿では,Open MLを定義し,MLの2つの形態の壮大な物語と対比する。
1) 最小入力(googleのalphazeroなど)による学習を重視したクローズドml,ml
2) 既存のモデルのパラメータ化に使用されるML, MLを部分的にオープンする。
これを達成するために、我々はこれらの壮大な物語を評価し、それらをオープンmlアプローチと対比するために、重要な複雑さの理論を使う。
具体的には,MLコミュニティでプレイされる13の「ゲーム」を識別することで,グランドMLの「理論」を分解する。
これらのゲームはモデルに虚偽の正当性を与え、人工知能の能力に関する過剰な予測と誇大宣伝に寄与し、主題への幅広い参加を減少させ、不平等を悪化させ、差別を引き起こし、究極的には研究における創造性を阻害するモデルに繋がる。
MLにおけるベストプラクティスは、合理主義的で壮大な物語よりも、決定的な複雑性の観点から一致すべきである、と私たちは主張する。
関連論文リスト
- A Large-Scale Study of Model Integration in ML-Enabled Software Systems [4.776073133338119]
機械学習(ML)とそのシステムへの組み込みは、ソフトウェア集約システムのエンジニアリングを大きく変えた。
伝統的に、ソフトウェアエンジニアリングは、ソースコードやそれらを作成するプロセスなど、手作業で作成したアーティファクトに焦点を当てている。
我々は、GitHub上で2,928以上のオープンソースシステムをカバーする、実際のML対応ソフトウェアシステムに関する最初の大規模な研究を提示する。
論文 参考訳(メタデータ) (2024-08-12T15:28:40Z) - LLAVADI: What Matters For Multimodal Large Language Models Distillation [77.73964744238519]
本研究では,新しい効率的なモデル構造を提案するのではなく,スクラッチから小規模MLLMを訓練する。
本研究は, 知識蒸留プロセスにおける学習戦略, モデル選択, 蒸留アルゴリズムに関するものである。
異なるベンチマークと適切な戦略を評価することで、2.7Bの小型モデルでも7Bまたは13Bのパラメータを持つ大型モデルと同等に動作することができる。
論文 参考訳(メタデータ) (2024-07-28T06:10:47Z) - Promises and Pitfalls of Generative Masked Language Modeling: Theoretical Framework and Practical Guidelines [74.42485647685272]
GMLM(Generative Masked Language Models)に焦点を当てる。
我々は,マルコフ連鎖の入力として使用されるマスキングにより,データ分布の条件付き確率に適合するモデルを訓練し,モデルからサンプルを抽出する。
我々は,T5モデルを並列デコーディングに適応させ,最小品質の犠牲を伴って機械翻訳における2~3倍の高速化を実現した。
論文 参考訳(メタデータ) (2024-07-22T18:00:00Z) - What is it for a Machine Learning Model to Have a Capability? [0.0]
モデル評価の初期段階の科学に有用な機械学習モデルの能力について考察する。
私たちの中核的な提案は、モデル能力の条件付き分析(CAMA)であり、粗雑に言うと、機械学習モデルは、もし"トリド"された場合、それが確実にXを行うのに成功するときに、Xの能力を持つ。
論文 参考訳(メタデータ) (2024-05-14T23:03:52Z) - Distance-Restricted Explanations: Theoretical Underpinnings & Efficient Implementation [19.22391463965126]
機械学習(ML)のいくつかの用途には、高い評価と安全性クリティカルなアプリケーションが含まれる。
本稿では,論理ベースの説明器の性能向上のための新しいアルゴリズムについて検討する。
論文 参考訳(メタデータ) (2024-05-14T03:42:33Z) - Understanding the Double Descent Phenomenon in Deep Learning [49.1574468325115]
このチュートリアルは、古典的な統計学習の枠組みを設定し、二重降下現象を導入する。
いくつかの例を見て、セクション2では、二重降下において重要な役割を果たすと思われる帰納的バイアスを導入している。
第3節は2つの線形モデルで二重降下を探索し、最近の関連する研究から他の視点を提供する。
論文 参考訳(メタデータ) (2024-03-15T16:51:24Z) - Logic-Based Explainability in Machine Learning [0.0]
最も成功した機械学習モデルの運用は、人間の意思決定者にとって理解できない。
近年,MLモデルを説明するためのアプローチの開発が試みられている。
本稿では,MLモデルの厳密なモデルに基づく説明を計算するための研究成果について概説する。
論文 参考訳(メタデータ) (2022-10-24T13:43:07Z) - The Need for Interpretable Features: Motivation and Taxonomy [69.07189753428553]
我々は、「解釈可能な特徴」という用語は、機械学習の説明の有用性に影響を与える機能の全範囲を捉えるのに十分な具体的あるいは詳細ではないと主張している。
本稿では,(1)解釈可能な機能空間と呼ぶもの,あるいはドメインの専門家が現実の行動を取る上で有用な機能の現状に,より注意を払わなければならない,という3つの重要な教訓を論じる。
論文 参考訳(メタデータ) (2022-02-23T19:19:14Z) - Does Explainable Machine Learning Uncover the Black Box in Vision
Applications? [1.0660480034605242]
説明可能なMLの背景にある現在の哲学は、一定の限界に悩まされていると我々は主張する。
また、より厳格な原則に頼ることで、MLにおける説明力がどのように役立つかという視点も提供します。
論文 参考訳(メタデータ) (2021-12-18T10:37:52Z) - Panoramic Learning with A Standardized Machine Learning Formalism [116.34627789412102]
本稿では,多様なMLアルゴリズムの統一的な理解を提供する学習目的の標準化された方程式を提案する。
また、新しいMLソリューションのメカニック設計のガイダンスも提供し、すべての経験を持つパノラマ学習に向けた有望な手段として機能する。
論文 参考訳(メタデータ) (2021-08-17T17:44:38Z) - An Information-Theoretic Approach to Personalized Explainable Machine
Learning [92.53970625312665]
本稿では,予測とユーザ知識のための簡易確率モデルを提案する。
説明と予測の間の条件付き相互情報による説明の効果を定量化する。
論文 参考訳(メタデータ) (2020-03-01T13:06:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。