論文の概要: Model Counting in the Wild
- arxiv url: http://arxiv.org/abs/2408.07059v1
- Date: Tue, 13 Aug 2024 17:49:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-14 16:45:31.939730
- Title: Model Counting in the Wild
- Title(参考訳): 野生におけるモデルカウント
- Authors: Arijit Shaw, Kuldeep S. Meel,
- Abstract要約: モデルカウンタの荒野におけるスケーラビリティの厳密な評価を行う。
我々は、これらのインスタンス上で6つの最先端モデルカウンタを評価し、スケーラビリティと実行時のパフォーマンスを評価する。
私たちの分析は、モデルカウントにおけるポートフォリオベースのアプローチの課題と機会を強調します。
- 参考スコア(独自算出の注目度): 31.05707402954459
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Model counting is a fundamental problem in automated reasoning with applications in probabilistic inference, network reliability, neural network verification, and more. Although model counting is computationally intractable from a theoretical perspective due to its #P-completeness, the past decade has seen significant progress in developing state-of-the-art model counters to address scalability challenges. In this work, we conduct a rigorous assessment of the scalability of model counters in the wild. To this end, we surveyed 11 application domains and collected an aggregate of 2262 benchmarks from these domains. We then evaluated six state-of-the-art model counters on these instances to assess scalability and runtime performance. Our empirical evaluation demonstrates that the performance of model counters varies significantly across different application domains, underscoring the need for careful selection by the end user. Additionally, we investigated the behavior of different counters with respect to two parameters suggested by the model counting community, finding only a weak correlation. Our analysis highlights the challenges and opportunities for portfolio-based approaches in model counting.
- Abstract(参考訳): モデルカウントは、確率的推論、ネットワーク信頼性、ニューラルネットワーク検証などの応用における、自動推論の基本的な問題である。
モデルカウントは、#P完全性のために理論的観点から計算的に難解であるが、過去10年間、スケーラビリティの課題に対処する最先端のモデルカウンタの開発において大きな進歩を遂げてきた。
本研究では,本研究におけるモデルカウンタのスケーラビリティの厳密な評価を行う。
この目的のために、11のアプリケーションドメインを調査し、これらのドメインから2262のベンチマークを収集しました。
次に、これらのインスタンス上で6つの最先端モデルカウンタを評価し、スケーラビリティと実行時のパフォーマンスを評価しました。
我々の経験的評価は、モデルカウンタの性能が異なるアプリケーション領域で大きく異なることを示し、エンドユーザーによる慎重な選択の必要性を強調している。
さらに,モデルカウントコミュニティが提案する2つのパラメータに対して異なるカウンタの挙動を検討した。
私たちの分析は、モデルカウントにおけるポートフォリオベースのアプローチの課題と機会を強調します。
関連論文リスト
- Predictive Churn with the Set of Good Models [64.05949860750235]
近似機械学習モデルの集合に対する競合予測の効果について検討する。
ラーショモン集合内のモデル間の係り受けに関する理論的結果を示す。
当社のアプローチは、コンシューマ向けアプリケーションにおいて、より予測し、削減し、混乱を避けるためにどのように使用できるかを示します。
論文 参考訳(メタデータ) (2024-02-12T16:15:25Z) - GEO-Bench: Toward Foundation Models for Earth Monitoring [139.77907168809085]
6つの分類と6つのセグメンテーションタスクからなるベンチマークを提案する。
このベンチマークは、さまざまな地球観測タスクの進行の原動力となる。
論文 参考訳(メタデータ) (2023-06-06T16:16:05Z) - Rigorous Assessment of Model Inference Accuracy using Language
Cardinality [5.584832154027001]
我々は,統計的推定を決定論的精度尺度に置き換えることで,モデル精度評価におけるバイアスと不確実性を最小化する体系的アプローチを開発する。
我々は、最先端の推論ツールによって推定されるモデルの精度を評価することによって、我々のアプローチの一貫性と適用性を実験的に実証した。
論文 参考訳(メタデータ) (2022-11-29T21:03:26Z) - Are Neural Topic Models Broken? [81.15470302729638]
トピックモデルの自動評価と人的評価の関係について検討する。
ニューラルトピックモデルは、確立された古典的手法と比較して、両方の点においてより悪くなる。
論文 参考訳(メタデータ) (2022-10-28T14:38:50Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Consistent Counterfactuals for Deep Models [25.1271020453651]
ファクトファクトの例は、金融や医療診断といった重要な領域における機械学習モデルの予測を説明するために使用される。
本稿では,初期訓練条件に小さな変更を加えた深層ネットワークにおける実例に対するモデル予測の整合性について検討する。
論文 参考訳(メタデータ) (2021-10-06T23:48:55Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z) - Amortized Bayesian Inference for Models of Cognition [0.1529342790344802]
専門的なニューラルネットワークアーキテクチャを用いたシミュレーションベース推論の最近の進歩は、ベイズ近似計算の多くの過去の問題を回避している。
本稿では,アモータイズされたベイズパラメータの推定とモデル比較について概説する。
論文 参考訳(メタデータ) (2020-05-08T08:12:15Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z) - Context-dependent self-exciting point processes: models, methods, and
risk bounds in high dimensions [21.760636228118607]
高次元自己回帰ポイントプロセスは、現在のイベントが、ソーシャルネットワークの1人のメンバーによる活動のような将来の出来事を誘発または抑制する方法をモデル化する。
我々は、機械学習における合成時系列と正規化手法のアイデアを活用し、高次元マークポイントプロセスのネットワーク推定を行う。
論文 参考訳(メタデータ) (2020-03-16T20:22:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。