論文の概要: The Representational Status of Deep Learning Models
- arxiv url: http://arxiv.org/abs/2303.12032v1
- Date: Tue, 21 Mar 2023 17:19:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-22 13:51:28.495456
- Title: The Representational Status of Deep Learning Models
- Title(参考訳): 深層学習モデルの表現状況
- Authors: Eamon Duede
- Abstract要約: 本稿では、DLMはリレーショナルな意味でターゲットを表すが、高度に理想化されたモデルとして最もよく理解されていることを論じる。
この結果は、説明可能なAI(XAI)に即座に影響し、DLM表現の理想化された性質を調べるために哲学的な注意を向ける。
- 参考スコア(独自算出の注目度): 0.15229257192293197
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper aims to clarify the representational status of Deep Learning
Models (DLMs). While commonly referred to as 'representations', what this
entails is ambiguous due to a conflation of functional and relational
conceptions of representation. This paper argues that while DLMs represent
their targets in a relational sense, they are best understood as highly
idealized models. This result has immediate implications for explainable AI
(XAI) and directs philosophical attention toward examining the idealized nature
of DLM representations and their role in future scientific investigation.
- Abstract(参考訳): 本稿では,深層学習モデル(DLM)の表現的状況を明らかにすることを目的とする。
一般に「表現」と呼ばれるが、表現の関数的および関係的な概念の融合により、この関係は曖昧である。
本稿では、DLMはリレーショナルな意味でターゲットを表すが、高度に理想化されたモデルとして最もよく理解されている。
この結果は、説明可能なAI(XAI)に即座に影響し、DLM表現の理想化された性質と将来の科学的研究におけるそれらの役割について、哲学的な注意を向ける。
関連論文リスト
- LogiDynamics: Unraveling the Dynamics of Logical Inference in Large Language Model Reasoning [49.58786377307728]
本稿では、類似推論のための制御された評価環境を導入することにより、探索的アプローチを採用する。
帰納的,帰納的,帰納的,帰納的な推論パイプラインの比較力学を解析する。
仮説選択や検証,洗練といった高度なパラダイムを考察し,論理的推論のスケールアップの可能性を明らかにする。
論文 参考訳(メタデータ) (2025-02-16T15:54:53Z) - Representation in large language models [0.0]
大規模言語モデルの振る舞いは、部分的に表現に基づく情報処理によって引き起こされていると私は主張する。
これらの表現を調査し、説明を開発するためのテクニックについて説明する。
論文 参考訳(メタデータ) (2025-01-01T16:19:48Z) - A generative framework to bridge data-driven models and scientific theories in language neuroscience [84.76462599023802]
脳内の言語選択性の簡潔な説明を生成するためのフレームワークである生成的説明媒介バリデーションを提案する。
本研究では,説明精度が基礎となる統計モデルの予測力と安定性と密接に関連していることを示す。
論文 参考訳(メタデータ) (2024-10-01T15:57:48Z) - Towards Compositional Interpretability for XAI [3.3768167170511587]
本稿では,カテゴリ理論に基づくAIモデルとその解釈可能性の定義手法を提案する。
我々は、幅広いAIモデルを構成モデルと比較する。
標準の'本質的に解釈可能な'モデルを作るものは、最も明確に図式化されます。
論文 参考訳(メタデータ) (2024-06-25T14:27:03Z) - On the Origins of Linear Representations in Large Language Models [51.88404605700344]
我々は,次のトークン予測の概念力学を定式化するために,単純な潜在変数モデルを導入する。
実験により、潜在変数モデルと一致するデータから学習すると線形表現が現れることが示された。
また、LLaMA-2大言語モデルを用いて、理論のいくつかの予測を検証した。
論文 参考訳(メタデータ) (2024-03-06T17:17:36Z) - Comparing Inferential Strategies of Humans and Large Language Models in Deductive Reasoning [25.732397636695882]
大規模言語モデル(LLM)では,人間の観察と類似した推論パターンが示される。
我々の研究は、モデルの構造と規模が、その好む推論方法に大きく影響していることを示します。
論文 参考訳(メタデータ) (2024-02-20T12:58:14Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - MAML and ANIL Provably Learn Representations [60.17417686153103]
我々は,MAMLとANILという2つの有名なメタ学習手法が,与えられたタスク群間の共通表現を学習可能であることを証明した。
具体的には、よく知られたマルチタスク線形表現学習環境では、指数関数的に高速な速度で接地トラス表現を復元することができる。
解析の結果,MAMLとANILがベースとなる表現を回復させる駆動力は,モデルの最終層に適応していることが判明した。
論文 参考訳(メタデータ) (2022-02-07T19:43:02Z) - Which Mutual-Information Representation Learning Objectives are
Sufficient for Control? [80.2534918595143]
相互情報は、データの表現を学習するために魅力的な形式を提供する。
本稿では,最適政策の学習と表現のための状態表現の十分性について定式化する。
意外なことに、これらの2つの目的は、MDPの構造に関する軽度で一般的な仮定を前提に、不十分な表現をもたらす可能性がある。
論文 参考訳(メタデータ) (2021-06-14T10:12:34Z) - The Pragmatic Turn in Explainable Artificial Intelligence (XAI) [0.0]
私は、AIにおける説明可能なモデルと解釈可能な決定の探索は、AIにおける理解の実践的で自然主義的な説明を提供するというより広いプロジェクトの観点から、再編成されなければならないと論じます。
解釈モデルや近似モデルは、機械学習モデルの客観的理解に最適な方法を提供するだけでなく、ポストホックな解釈可能性を実現するために必要な条件でもあると結論付けます。
論文 参考訳(メタデータ) (2020-02-22T01:40:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。