論文の概要: A Theory of the Mechanics of Information: Generalization Through Measurement of Uncertainty (Learning is Measuring)
- arxiv url: http://arxiv.org/abs/2510.22809v1
- Date: Sun, 26 Oct 2025 19:45:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.371905
- Title: A Theory of the Mechanics of Information: Generalization Through Measurement of Uncertainty (Learning is Measuring)
- Title(参考訳): 情報力学の理論:不確かさの測定による一般化(学習は測定)
- Authors: Christopher J. Hazard, Michael Resnick, Jacob Beel, Jack Xia, Cade Mack, Dominic Glennie, Matthew Fulp, David Maze, Andrew Bassett, Martin Koistinen,
- Abstract要約: 本研究では,情報理論の不確実性(informationtheoretic uncertainty)を用いたモデルフリーフレームワークを導入し,生データからの推論を解析・実行した。
分散モデリングを排除し、バイアスを低減し、トレーニングデータの直接編集や削除を含む効率的な更新を可能にする。
トレーサビリティ、解釈可能性、データ駆動による意思決定を強調し、マシンラーニングのための統一された人間理解可能なフレームワークを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Traditional machine learning relies on explicit models and domain assumptions, limiting flexibility and interpretability. We introduce a model-free framework using surprisal (information theoretic uncertainty) to directly analyze and perform inferences from raw data, eliminating distribution modeling, reducing bias, and enabling efficient updates including direct edits and deletion of training data. By quantifying relevance through uncertainty, the approach enables generalizable inference across tasks including generative inference, causal discovery, anomaly detection, and time series forecasting. It emphasizes traceability, interpretability, and data-driven decision making, offering a unified, human-understandable framework for machine learning, and achieves at or near state-of-the-art performance across most common machine learning tasks. The mathematical foundations create a ``physics'' of information, which enable these techniques to apply effectively to a wide variety of complex data types, including missing data. Empirical results indicate that this may be a viable alternative path to neural networks with regard to scalable machine learning and artificial intelligence that can maintain human understandability of the underlying mechanics.
- Abstract(参考訳): 従来の機械学習は明示的なモデルとドメインの仮定に依存しており、柔軟性と解釈可能性を制限する。
情報理論の不確実性(informationtheoretic uncertainty)を用いたモデルフリーフレームワークを導入し,生データからの推論を直接解析・実行し,分布モデリングを排除し,バイアスを低減し,トレーニングデータの直接編集や削除を含む効率的な更新を可能にする。
不確実性を通じて関連性を定量化することにより、生成的推論、因果発見、異常検出、時系列予測などのタスクをまたいだ一般化可能な推論が可能になる。
トレーサビリティ、解釈可能性、およびデータ駆動による意思決定を強調し、マシンラーニングのための統一された人間理解可能なフレームワークを提供し、一般的な機械学習タスクで最先端のパフォーマンスをほぼ達成する。
数学的基礎は「物理」情報を作成し、これらの技術は欠落データを含む様々な複雑なデータタイプに効果的に適用することができる。
実証的な結果から、これは、基盤となる力学の人間の理解性を維持できるスケーラブルな機械学習と人工知能に関して、ニューラルネットワークにとって実行可能な代替手段である可能性が示唆されている。
関連論文リスト
- Provenance Networks: End-to-End Exemplar-Based Explainability [0.0]
私たちは、エンドツーエンドのトレーニングデータ駆動型説明可能性を提供するように設計された、新しいニューラルネットワークのクラスである、プロフェランスネットワークを紹介します。
確率ネットワークは、モデルの通常の操作の一部として、各予測を支援トレーニングの例に直接リンクすることを学ぶ。
これは、モデル不透明さ、幻覚、データコントリビュータへのクレジットの割り当てなど、現代のディープラーニングにおける重要な課題に対処する。
論文 参考訳(メタデータ) (2025-10-03T01:48:38Z) - From Physics to Machine Learning and Back: Part II - Learning and Observational Bias in PHM [52.64097278841485]
物理インフォームドモデリングとデータストラテジーによる学習と観察バイアスの導入は、モデルを物理的に一貫した信頼性のある予測へと導くことができるかを検討する。
メタラーニングや少数ショットラーニングなどの高速適応手法をドメイン一般化手法とともに検討する。
論文 参考訳(メタデータ) (2025-09-25T14:15:43Z) - Efficient Machine Unlearning via Influence Approximation [75.31015485113993]
インフルエンサーベースのアンラーニングは、個別のトレーニングサンプルがモデルパラメータに与える影響を再トレーニングせずに推定する顕著なアプローチとして現れてきた。
本稿では,暗記(増分学習)と忘れ(未学習)の理論的関連性を確立する。
本稿では、インフルエンス近似アンラーニングアルゴリズムを導入し、インクリメンタルな視点から効率的なマシンアンラーニングを行う。
論文 参考訳(メタデータ) (2025-07-31T05:34:27Z) - Meta-Statistical Learning: Supervised Learning of Statistical Inference [59.463430294611626]
この研究は、大きな言語モデル(LLM)の成功を駆動するツールと原則が、分散レベルのタスクに取り組むために再利用可能であることを実証している。
本稿では,統計的推論タスクを教師付き学習問題として再構成するマルチインスタンス学習に触発されたメタ統計学習を提案する。
論文 参考訳(メタデータ) (2025-02-17T18:04:39Z) - RESTOR: Knowledge Recovery in Machine Unlearning [71.75834077528305]
Webスケールコーパスでトレーニングされた大規模な言語モデルは、プライベートまたはセンシティブな情報を含むことができる。
このようなデータポイントの効果を排除するために、いくつかの機械学習アルゴリズムが提案されている。
機械学習評価のためのRESTORフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-31T20:54:35Z) - A spectrum of physics-informed Gaussian processes for regression in
engineering [0.0]
センサとデータ全般の可用性は向上していますが、純粋なデータ駆動アプローチから多くのサービス内エンジニアリングシステムや構造を完全に特徴づけることはできません。
本稿では、限られたデータで予測モデルを作成する能力を高めるために、機械学習技術と物理に基づく推論の組み合わせを追求する。
論文 参考訳(メタデータ) (2023-09-19T14:39:03Z) - Interpretable Machine Learning for Discovery: Statistical Challenges \&
Opportunities [1.2891210250935146]
我々は、解釈可能な機械学習の分野について議論し、レビューする。
解釈可能な機械学習を用いて行うことができる発見の種類について概説する。
我々は、これらの発見をデータ駆動方式でどのように検証するかという大きな課題に焦点をあてる。
論文 参考訳(メタデータ) (2023-08-02T23:57:31Z) - Vulnerability Under Adversarial Machine Learning: Bias or Variance? [77.30759061082085]
本研究では,機械学習が訓練された深層ニューラルネットワークのバイアスと分散に与える影響について検討する。
我々の分析は、ディープニューラルネットワークが対向的摂動下で性能が劣っている理由に光を当てている。
本稿では,計算処理の複雑さをよく知られた機械学習手法よりも低く抑えた,新しい逆機械学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-08-01T00:58:54Z) - A probabilistic generative model for semi-supervised training of
coarse-grained surrogates and enforcing physical constraints through virtual
observables [3.8073142980733]
本稿では、トレーニング目的と代理モデル自体の両方において、物理的構造と情報を考慮した柔軟な確率的フレームワークを提供する。
我々は、物理から得られる等式を仮想観測可能なものとして導入し、その可能性を通じて追加情報を提供する確率論的モデルを提案する。
論文 参考訳(メタデータ) (2020-06-02T17:14:36Z) - Causal Discovery from Incomplete Data: A Deep Learning Approach [21.289342482087267]
因果構造探索と因果構造探索を反復的に行うために, 因果学習を提案する。
ICLは、異なるデータメカニズムで最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-01-15T14:28:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。