論文の概要: Majority Voting and the Condorcet's Jury Theorem
- arxiv url: http://arxiv.org/abs/2002.03153v2
- Date: Thu, 13 Feb 2020 21:40:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 22:12:21.845114
- Title: Majority Voting and the Condorcet's Jury Theorem
- Title(参考訳): 多数派投票とコンドルチェットの陪審理論
- Authors: Hanan Shteingart, Eran Marom, Igor Itkin, Gil Shabat, Michael
Kolomenkin, Moshe Salhov, and Liran Katzir
- Abstract要約: 『Condorcet's jury theorem』では、多数派は個別の投票がしばしば正確で独立したときに正しい選択をする傾向にあるとしている。
弱学習性の強度(1990年)は、弱い学習アルゴリズムを任意の精度で学習するアルゴリズムに変換する方法である。
我々は、定理のより公開性の高い単純な導出を提供したいと謙虚に願っている。
- 参考スコア(独自算出の注目度): 3.3048031280378556
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is a striking relationship between a three hundred years old Political
Science theorem named "Condorcet's jury theorem" (1785), which states that
majorities are more likely to choose correctly when individual votes are often
correct and independent, and a modern Machine Learning concept called "Strength
of Weak Learnability" (1990), which describes a method for converting a weak
learning algorithm into one that achieves arbitrarily high accuracy and stands
in the basis of Ensemble Learning. Albeit the intuitive statement of
Condorcet's theorem, we could not find a compact and simple rigorous
mathematical proof of the theorem neither in classical handbooks of Machine
Learning nor in published papers. By all means we do not claim to discover or
reinvent a theory nor a result. We humbly want to offer a more publicly
available simple derivation of the theorem. We will find joy in seeing more
teachers of introduction-to-machine-learning courses use the proof we provide
here as an exercise to explain the motivation of ensemble learning.
- Abstract(参考訳): There is a striking relationship between a three hundred years old Political Science theorem named "Condorcet's jury theorem" (1785), which states that majorities are more likely to choose correctly when individual votes are often correct and independent, and a modern Machine Learning concept called "Strength of Weak Learnability" (1990), which describes a method for converting a weak learning algorithm into one that achieves arbitrarily high accuracy and stands in the basis of Ensemble Learning.
コンドルチェットの定理の直感的な言明にもかかわらず、古典的な機械学習のハンドブックにも出版論文にも、定理のコンパクトで単純な厳密な数学的証明が見つからなかった。
いずれにせよ、我々は理論や結果を発見または再発明するわけではない。
我々は、定理のより公開性の高い単純な導出を提供したい。
イントロダクティブ・ツー・マシン・ラーニング・コースの教師が、アンサンブル学習の動機を説明するための演習として、ここで提示した証明を使用するのを見るのが楽しみです。
関連論文リスト
- Machine learning and information theory concepts towards an AI
Mathematician [77.63761356203105]
人工知能の現在の最先端技術は、特に言語習得の点で印象的だが、数学的推論の点ではあまり重要ではない。
このエッセイは、現在のディープラーニングが主にシステム1の能力で成功するという考えに基づいている。
興味深い数学的ステートメントを構成するものについて質問するために、情報理論的な姿勢を取る。
論文 参考訳(メタデータ) (2024-03-07T15:12:06Z) - A Theory of Unsupervised Speech Recognition [60.12287608968879]
教師なし音声認識(英語: Unsupervised speech Recognition, ASR-U)は、音声のみの音声とテキストのみのコーパスから自動音声認識システムを学習する問題である。
本稿では,ランダム行列理論とニューラル・タンジェント・カーネルの理論に基づいて,ASR-U系の特性を研究するための一般的な理論的枠組みを提案する。
論文 参考訳(メタデータ) (2023-06-09T08:12:27Z) - Connecting classical finite exchangeability to quantum theory [69.62715388742298]
交換性は確率論と統計学の基本的な概念である。
有限交換可能な列に対するデ・フィネッティのような表現定理は、量子論と正式に等価な数学的表現を必要とすることを示す。
論文 参考訳(メタデータ) (2023-06-06T17:15:19Z) - TheoremQA: A Theorem-driven Question Answering dataset [100.39878559382694]
GPT-4のこれらの問題を解決する能力は非並列であり、Program-of-Thoughts Promptingの精度は51%である。
TheoremQAは、350の定理をカバーする800の高品質な質問を含むドメインの専門家によってキュレートされる。
論文 参考訳(メタデータ) (2023-05-21T17:51:35Z) - Reassessing the strength of a class of Wigner's friend no-go theorems [0.0]
最近の2つの定理は、物理的現実の可能な性質に新しい非自明な制約を課そうとする。
私はこれらの定理を徹底的に分析し、それらがそれらの妥当性を疑問視し、その強さを制限する欠点のリストに悩まされていることを示す。
観察者に依存しない事実に対するノーゴー定理」と「ローカルフレンドリーなノーゴー定理」は、物理的な現実の性質に重大な制約を課すことができないと結論づける。
論文 参考訳(メタデータ) (2022-04-26T00:56:36Z) - On the paper "Quantum theory cannot consistently describe the use of
itself" [0.0]
どちらの量子論も、マクロシステムにも普遍的に適用できないことを証明している。
論文の結果を簡潔に説明し、その証明の詳細を明らかにする。
論文 参考訳(メタデータ) (2021-06-14T11:33:55Z) - Learning to Guide a Saturation-Based Theorem Prover [9.228237801323042]
TRAILは、ニューラルネットワーク内で証明される飽和に基づく定理の中核要素を特徴付ける、深い学習に基づく定理証明のアプローチである。
我々の知る限りでは、TRAILは最先端の伝統的な定理証明器の性能を超える最初の強化学習に基づくアプローチである。
論文 参考訳(メタデータ) (2021-06-07T18:35:57Z) - Towards Understanding Ensemble, Knowledge Distillation and
Self-Distillation in Deep Learning [93.18238573921629]
本研究では,学習モデルのアンサンブルがテスト精度を向上させる方法と,アンサンブルの優れた性能を単一モデルに蒸留する方法について検討する。
深層学習におけるアンサンブル/知識蒸留は,従来の学習理論とは大きく異なる。
また, 自己蒸留は, アンサンブルと知識蒸留を暗黙的に組み合わせて, 試験精度を向上させることができることを示した。
論文 参考訳(メタデータ) (2020-12-17T18:34:45Z) - Three computational models and its equivalence [0.0]
計算可能性の研究は、1900年のヒルベルトの会議(英語版)においてアルゴリズムの概念を正確に記述することに由来する。
数学的詳細を忘れずに、現代の方法で証明を提示するこのギャップを埋めるつもりです。
論文 参考訳(メタデータ) (2020-10-26T05:55:19Z) - Learning to Prove Theorems by Learning to Generate Theorems [71.46963489866596]
我々は、定理証明器を訓練するために、定理と証明を自動的に合成するニューラルジェネレータを学習する。
実世界の課題に関する実験は、我々の手法による合成データが定理証明器を改善することを示した。
論文 参考訳(メタデータ) (2020-02-17T16:06:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。