論文の概要: Pragmatist Intelligence: Where the Principle of Usefulness Can Take ANNs
- arxiv url: http://arxiv.org/abs/2405.04386v1
- Date: Tue, 7 May 2024 15:11:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-08 13:41:05.416105
- Title: Pragmatist Intelligence: Where the Principle of Usefulness Can Take ANNs
- Title(参考訳): プラグマティズムの知性 - 有用性の原則がANNにもたらすべきところ
- Authors: Antonio Bikić, Sayan Mukherjee,
- Abstract要約: ニューラルネットワーク(ANN)上で動作する機械学習アルゴリズムにおけるモデルパラメータ選択とネオプラグマティズムの理論との関係を概説する。
ANNのモデルパラメータ選択の結果を理解するために,本論文では,その意味がよく研究されている新プラグマティズム理論を用いることを提案する。
- 参考スコア(独自算出の注目度): 1.170951597793276
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial neural networks (ANNs) perform extraordinarily on numerous tasks including classification or prediction, e.g., speech processing and image classification. These new functions are based on a computational model that is enabled to select freely all necessary internal model parameters as long as it eventually delivers the functionality it is supposed to exhibit. Here, we review the connection between the model parameter selection in machine learning (ML) algorithms running on ANNs and the epistemological theory of neopragmatism focusing on the theory's utility and anti-representationalist aspects. To understand the consequences of the model parameter selection of an ANN, we suggest using neopragmatist theories whose implications are well studied. Incidentally, neopragmatism's notion of optimization is also based on utility considerations. This means that applying this approach elegantly reveals the inherent connections between optimization in ML, using a numerical method during the learning phase, and optimization in the ethical theory of consequentialism, where it occurs as a maxim of action. We suggest that these connections originate from the way relevance is calculated in ML systems. This could ultimately reveal a tendency for specific actions in ML systems.
- Abstract(参考訳): 人工知能ニューラルネットワーク(ANN)は、分類や予測、例えば、音声処理、画像分類など、多くのタスクで特別に実行される。
これらの新しい関数は計算モデルに基づいており、最終的に提示されるはずの機能を提供する限り、必要なすべての内部モデルパラメータを自由に選択することができる。
本稿では、ANN上で動作する機械学習アルゴリズムにおけるモデルパラメータ選択と、その理論の実用性と反表現主義的側面に着目したネオプラグマティズムの認識論的理論との関係を概説する。
ANNのモデルパラメータ選択の結果を理解するために,本論文では,その意味がよく研究されている新プラグマティズム理論を用いることを提案する。
なお、ネオプラグマティズムの最適化の概念も実用性に基づくものである。
これは、この手法を適用することによって、MLにおける最適化と学習フェーズにおける数値的手法と、それが行動の最大値として起こる連続性理論における最適化との間の固有の関係をエレガントに明らかにすることを意味する。
これらの関係は,MLシステムにおける関連性の計算方法に起因していることが示唆された。
これは最終的にMLシステムにおける特定のアクションの傾向を示す可能性がある。
関連論文リスト
- Understanding Reinforcement Learning-Based Fine-Tuning of Diffusion Models: A Tutorial and Review [63.31328039424469]
このチュートリアルは、下流の報酬関数を最適化するための微調整拡散モデルのための方法を網羅的に調査する。
PPO,微分可能最適化,報酬重み付きMLE,値重み付きサンプリング,経路整合性学習など,様々なRLアルゴリズムの適用について説明する。
論文 参考訳(メタデータ) (2024-07-18T17:35:32Z) - A tutorial on learning from preferences and choices with Gaussian Processes [0.7234862895932991]
このチュートリアルは、既存の文献の特定のギャップに対処する新しいGPベースのモデルを導入しながら、確立された研究の上に構築されている。
このフレームワークは、ランダムなユーティリティモデル、識別の限界、およびオブジェクトとラベルの両方に矛盾するユーティリティを持つシナリオを含む嗜好学習モデルの構築を可能にする。
論文 参考訳(メタデータ) (2024-03-18T13:40:48Z) - Dissecting Language Models: Machine Unlearning via Selective Pruning [0.7373617024876725]
本稿では,大規模言語モデル(LLM)に特化して設計された機械学習手法を提案する。
我々は,LLMの選択的プルーニング法を導入し,ネットワーク全体の性能と比較して,標的能力に対するニューロンの重要性から神経細胞を除去する。
LLMのフィードフォワードニューロンとアテンションニューロンはどちらも専門的であり、特定のタスクにおいては、特定のニューロンは他のニューロンよりも重要である。
論文 参考訳(メタデータ) (2024-03-02T17:10:44Z) - Promises and Pitfalls of the Linearized Laplace in Bayesian Optimization [73.80101701431103]
線形化ラプラス近似(LLA)はベイズニューラルネットワークの構築に有効で効率的であることが示されている。
ベイズ最適化におけるLLAの有用性について検討し,その性能と柔軟性を強調した。
論文 参考訳(メタデータ) (2023-04-17T14:23:43Z) - Disentangled Explanations of Neural Network Predictions by Finding Relevant Subspaces [14.70409833767752]
説明可能なAIは、ニューラルネットワークのような複雑なMLモデルのブラックボックスの性質を克服し、予測の説明を生成することを目的としている。
そこで本研究では,PCA や ICA に見られる原理を説明に拡張する2つの新しい分析法を提案する。
これらの新しい分析は、主成分分析 (PRCA) と解離関連部分空間分析 (DRSA) と呼ばれ、ばらつきや硬変の代わりに関連性を最大化する。
論文 参考訳(メタデータ) (2022-12-30T18:04:25Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - DebiNet: Debiasing Linear Models with Nonlinear Overparameterized Neural
Networks [11.04121146441257]
パラメータ化ニューラルネットワークを半パラメトリックモデルに組み込んで推論と予測のギャップを埋める。
我々はこれを可能とし、数値実験で実証する理論的基礎を示す。
半パラメトリックニューラルネットワークに任意の特徴選択手法をプラグインするフレームワークであるDebiNetを提案する。
論文 参考訳(メタデータ) (2020-11-01T04:12:53Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。