論文の概要: Comment on Is Complexity an Illusion?
- arxiv url: http://arxiv.org/abs/2411.08897v1
- Date: Tue, 29 Oct 2024 02:40:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-17 09:02:03.376688
- Title: Comment on Is Complexity an Illusion?
- Title(参考訳): 複雑さはIllusionか?
- Authors: Gabriel Simmons,
- Abstract要約: 「複雑さはIllusionか?」(Bennett,2024)は複雑性、学習、推論、一般化のための形式主義を提供する。
この回答は、教師付きマルチクラス分類の単純なタスクに対して、正しいポリシーが存在しないことを示している。
- 参考スコア(独自算出の注目度): 5.439020425819001
- License:
- Abstract: The paper "Is Complexity an Illusion?" (Bennett, 2024) provides a formalism for complexity, learning, inference, and generalization, and introduces a formal definition for a "policy". This reply shows that correct policies do not exist for a simple task of supervised multi-class classification, via mathematical proof and exhaustive search. Implications of this result are discussed, as well as possible responses and amendments to the theory.
- Abstract(参考訳): 論文 "Is Complexity an Illusion?" (Bennett, 2024) は、複雑性、学習、推論、一般化の形式主義を提供し、「政治」の形式的定義を導入している。
この回答は、数学的証明と徹底的な探索を通じて、教師付き多クラス分類の単純なタスクに対して正しいポリシーが存在しないことを示している。
この結果の意味について論じるとともに、理論に対する応答や修正の可能性についても論じる。
関連論文リスト
- The complexity of entanglement embezzlement [0.0]
プロセスの任意の精度を実現する状態列を用いて,エンベゾルメントの回路複雑性について検討する。
以上の結果から,回路の複雑度は完全なエンベゾルメントの物理的障害となることが示唆された。
論文 参考訳(メタデータ) (2024-10-24T18:00:33Z) - A Complexity-Based Theory of Compositionality [53.025566128892066]
AIでは、構成表現は配布外一般化の強力な形式を可能にすることができる。
ここでは、構成性に関する直観を考慮し、拡張する構成性の公式な定義を提案する。
この定義は概念的には単純で量的であり、アルゴリズム情報理論に基礎を置いており、あらゆる表現に適用できる。
論文 参考訳(メタデータ) (2024-10-18T18:37:27Z) - Is Complexity an Illusion? [0.0]
すべての制約は、弱さに関係なく、同じくらい単純な形を取ることができる。
もし関数が形式の有限部分集合で表されるなら、単純さと一般化の間に相関関係を強制することができる。
論文 参考訳(メタデータ) (2024-03-31T13:36:55Z) - A Reply to Makelov et al. (2023)'s "Interpretability Illusion" Arguments [59.87080148922358]
我々は、Makelov et al. (2023)が実際に見ているのは、トレーニングと評価のパラダイムの成果であると主張している。
しかし、Makelov et al. (2023) の例と議論は間違いなく解釈可能性の分野を前進させた。
論文 参考訳(メタデータ) (2024-01-23T10:27:42Z) - Discovering modular solutions that generalize compositionally [55.46688816816882]
実演から純粋に線形変換までを識別することは、指数関数的な数の加群の組み合わせを学習することなく可能であることを示す。
さらに, 有限データからのメタラーニングにより, 多くの複雑な環境において, 構成を一般化するモジュラーポリシが発見可能であることを実証的に実証した。
論文 参考訳(メタデータ) (2023-12-22T16:33:50Z) - Succinct Representations for Concepts [12.134564449202708]
chatGPTのようなファンデーションモデルは、様々なタスクで顕著なパフォーマンスを示している。
しかし、多くの疑問に対して、彼らは正確なように見える誤った答えを生み出すかもしれない。
本稿では,圏論に基づく概念の簡潔な表現について述べる。
論文 参考訳(メタデータ) (2023-03-01T12:11:23Z) - On the Complexity of Representation Learning in Contextual Linear
Bandits [110.84649234726442]
表現学習は線形帯域よりも根本的に複雑であることを示す。
特に、与えられた表現の集合で学ぶことは、その集合の中で最悪の実現可能な表現で学ぶことよりも決して単純ではない。
論文 参考訳(メタデータ) (2022-12-19T13:08:58Z) - On the Complexity of Bayesian Generalization [141.21610899086392]
我々は、多様かつ自然な視覚スペクトルにおいて、概念一般化を大規模に考える。
問題空間が大きくなると、2つのモードが研究され、$complexity$が多様になる。
論文 参考訳(メタデータ) (2022-11-20T17:21:37Z) - Generating Literal and Implied Subquestions to Fact-check Complex Claims [64.81832149826035]
我々は、複雑なクレームを、そのクレームの正確性に影響を及ぼす「イエス・ノー・サブクエスト」の包括的集合に分解することに集中する。
我々は1000以上のクレームに対する分解のデータセットである ClaimDecomp を提示する。
これらのサブクエストは、関連する証拠を特定し、すべてのクレームを事実確認し、回答を通じて正確性を引き出すのに役立ちます。
論文 参考訳(メタデータ) (2022-05-14T00:40:57Z) - Majority Voting and the Condorcet's Jury Theorem [3.3048031280378556]
『Condorcet's jury theorem』では、多数派は個別の投票がしばしば正確で独立したときに正しい選択をする傾向にあるとしている。
弱学習性の強度(1990年)は、弱い学習アルゴリズムを任意の精度で学習するアルゴリズムに変換する方法である。
我々は、定理のより公開性の高い単純な導出を提供したいと謙虚に願っている。
論文 参考訳(メタデータ) (2020-02-08T12:28:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。