論文の概要: Do Machine Learning Models Learn Common Sense?
- arxiv url: http://arxiv.org/abs/2303.01433v1
- Date: Thu, 2 Mar 2023 17:47:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-03 13:16:09.644360
- Title: Do Machine Learning Models Learn Common Sense?
- Title(参考訳): 機械学習モデルは常識を学ぶか?
- Authors: Aaditya Naik, Yinjun Wu, Mayur Naik, Eric Wong
- Abstract要約: 我々は,データ駆動モデルにおいて共通感覚を特徴付けるとともに,モデルが共通感覚を学習した範囲を定量化する。
本稿では,モデルの学習データから共通感覚ルールを導出するために,統計的推論と論理ベースの手法を統合するフレームワークを提案する。
テスト時にモデルを適応して、常識ルール違反を減らし、より一貫性のある予測を生成する方法を示す。
- 参考スコア(独自算出の注目度): 20.091740908154843
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning models can make basic errors that are easily hidden within
vast amounts of data. Such errors often run counter to human intuition referred
to as "common sense". We thereby seek to characterize common sense for
data-driven models, and quantify the extent to which a model has learned common
sense. We propose a framework that integrates logic-based methods with
statistical inference to derive common sense rules from a model's training data
without supervision. We further show how to adapt models at test-time to reduce
common sense rule violations and produce more coherent predictions. We evaluate
our framework on datasets and models for three different domains. It generates
around 250 to 300k rules over these datasets, and uncovers 1.5k to 26k
violations of those rules by state-of-the-art models for the respective
datasets. Test-time adaptation reduces these violations by up to 38% without
impacting overall model accuracy.
- Abstract(参考訳): 機械学習モデルは、大量のデータに簡単に隠れる基本的なエラーを作ることができる。
このような誤りは、しばしば「常識」と呼ばれる人間の直観に逆らう。
これにより、データ駆動モデルにおける常識を特徴付け、モデルが常識を学習した程度を定量化する。
本稿では,モデルの学習データから共通感覚ルールを導出するために,統計的推論と論理ベースの手法を統合するフレームワークを提案する。
さらに,テスト時にモデルを適用し,常識規則違反を低減し,より一貫性のある予測を行う方法を示す。
3つの異なるドメインのデータセットとモデルに関するフレームワークを評価する。
これらのデータセットに対して約250~300万のルールを生成し、各データセットの最先端モデルによる1.5万から26万のルール違反を明らかにする。
テストタイム適応は、モデル全体の精度に影響を与えることなく、これらの違反を最大38%削減する。
関連論文リスト
- What Do Learning Dynamics Reveal About Generalization in LLM Reasoning? [83.83230167222852]
モデルの一般化動作は,事前記憶列車の精度と呼ばれるトレーニング指標によって効果的に特徴づけられることがわかった。
モデルの学習行動と一般化を結びつけることで、トレーニング戦略に目標とする改善を導くことができる。
論文 参考訳(メタデータ) (2024-11-12T09:52:40Z) - Language models scale reliably with over-training and on downstream tasks [121.69867718185125]
スケーリング法則は、高価なトレーニング実行を引き出すための有用なガイドである。
しかし、現在の研究と言語モデルがどのように訓練されているかには差がある。
対照的に、スケーリング法則は主に推論における損失を予測するが、モデルは通常下流のタスクのパフォーマンスで比較される。
論文 参考訳(メタデータ) (2024-03-13T13:54:00Z) - Certain and Approximately Certain Models for Statistical Learning [4.318959672085627]
特定のトレーニングデータや対象モデルに対して,不足値を持つデータから,正確なモデルを直接学習することが可能であることを示す。
我々は、理論的に保証された効率的なアルゴリズムを構築し、この必要条件を確認し、計算が不要な場合に正確なモデルを返す。
論文 参考訳(メタデータ) (2024-02-27T22:49:33Z) - LARA: A Light and Anti-overfitting Retraining Approach for Unsupervised
Time Series Anomaly Detection [49.52429991848581]
深部変分自動エンコーダに基づく時系列異常検出手法(VAE)のための光・反オーバーフィット学習手法(LARA)を提案する。
本研究の目的は,1) 再学習過程を凸問題として定式化し, 過度に収束できること,2) 履歴データを保存せずに活用するルミネートブロックを設計すること,3) 潜在ベクトルと再構成データの微調整を行うと, 線形形成が基底真実と微調整されたブロックとの誤りを最小に調整できることを数学的に証明することである。
論文 参考訳(メタデータ) (2023-10-09T12:36:16Z) - AI Model Disgorgement: Methods and Choices [127.54319351058167]
本稿では,現代の機械学習システムに適用可能な分類法を紹介する。
学習モデルにおけるデータ「効果の除去」の意味を,スクラッチからリトレーニングする必要のない方法で検討する。
論文 参考訳(メタデータ) (2023-04-07T08:50:18Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - Canary in a Coalmine: Better Membership Inference with Ensembled
Adversarial Queries [53.222218035435006]
私たちは、差別的で多様なクエリを最適化するために、逆ツールを使用します。
我々の改善は既存の方法よりもはるかに正確な会員推定を実現している。
論文 参考訳(メタデータ) (2022-10-19T17:46:50Z) - Pedagogical Rule Extraction for Learning Interpretable Models [0.0]
我々は,小データからより良いルールを学習するためのPreLIMというフレームワークを提案する。
統計モデルを使用してデータを拡張し、ルールベースのモデルを学ぶ。
実験では,最先端のPreLIM構成よりも優れたPreLIM構成を同定した。
論文 参考訳(メタデータ) (2021-12-25T20:54:53Z) - Supervised Machine Learning with Plausible Deniability [1.685485565763117]
機械学習(ML)モデルが、特定のデータセットでトレーニングされたモデルが、トレーニングデータに対してどの程度のプライバシを提供するか、という問題について検討する。
我々は、純粋にランダムなトレーニングデータの集合を取ることができ、そこから、ちょうど$f$のMLモデルを生成する'適切な学習ルール'を定義することができることを示す。
論文 参考訳(メタデータ) (2021-06-08T11:54:51Z) - Defuse: Harnessing Unrestricted Adversarial Examples for Debugging
Models Beyond Test Accuracy [11.265020351747916]
Defuseは、テストデータ以外のモデルエラーを自動的に検出し、修正する手法である。
本稿では, 生成モデルを用いて, モデルによって誤分類された自然発生事例を探索する逆機械学習手法に着想を得たアルゴリズムを提案する。
Defuseはテストセットの一般化を維持しながら、微調整後のエラーを修正する。
論文 参考訳(メタデータ) (2021-02-11T18:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。