論文の概要: Borch: A Deep Universal Probabilistic Programming Language
- arxiv url: http://arxiv.org/abs/2209.06168v1
- Date: Tue, 13 Sep 2022 17:18:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-14 12:34:32.299367
- Title: Borch: A Deep Universal Probabilistic Programming Language
- Title(参考訳): Borch: 完全な普遍確率型プログラミング言語
- Authors: Lewis Belcher, Johan Gudmundsson, Michael Green
- Abstract要約: 私たちはPyTorch上に構築されたスケーラブルで普遍的な確率的プログラミング言語であるBorchを紹介します。
コードは当社のリポジトリ https://gitlab.com/desupervised/borch.com でダウンロードと使用が可能です。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ever since the Multilayered Perceptron was first introduced the connectionist
community has struggled with the concept of uncertainty and how this could be
represented in these types of models. This past decade has seen a lot of effort
in trying to join the principled approach of probabilistic modeling with the
scalable nature of deep neural networks. While the theoretical benefits of this
consolidation are clear, there are also several important practical aspects of
these endeavors; namely to force the models we create to represent, learn, and
report uncertainty in every prediction that is made. Many of these efforts have
been based on extending existing frameworks with additional structures. We
present Borch, a scalable deep universal probabilistic programming language,
built on top of PyTorch. The code is available for download and use in our
repository https://gitlab.com/desupervised/borch.
- Abstract(参考訳): マルチレイヤーパーセプトロンが最初に導入されて以来、コネクショニストコミュニティは不確実性の概念とこのようなモデルでどのように表現できるかに苦労してきた。
この10年は、ニューラルネットワークのスケーラブルな性質を持つ確率モデリングの原理的なアプローチに参加することに多くの努力をしてきた。
この統合の理論的メリットは明確ですが、これらの取り組みにはいくつかの重要な実践的な側面があります。
これらの取り組みの多くは、既存のフレームワークを追加構造で拡張することに基づいている。
私たちはPyTorch上に構築されたスケーラブルで普遍的な確率的プログラミング言語であるBorchを紹介します。
コードは当社のリポジトリ https://gitlab.com/desupervised/borch.com でダウンロードと使用が可能です。
関連論文リスト
- Efficient Model Compression for Bayesian Neural Networks [4.179545514579061]
本研究では,ベイズモデル選択の原理を深層学習設定でエミュレートするための新しい戦略を示す。
シミュレーションおよび実世界のベンチマークデータのホスト上でのプルーニングと特徴選択にこれらの確率を用いる。
論文 参考訳(メタデータ) (2024-11-01T00:07:59Z) - pyhgf: A neural network library for predictive coding [0.2150989251218736]
texttpyhgfは、予測コーディングのための動的ネットワークの作成、操作、サンプリングのためのPythonパッケージである。
ネットワークコンポーネントを透過的でモジュール的で、拡張可能な変数としてメッセージパッシングステップに囲み込むことで、他のフレームワークよりも改善します。
コア変数の透明性は、自己組織化の原則を活用する推論プロセスにも変換できる。
論文 参考訳(メタデータ) (2024-10-11T19:21:38Z) - Promises and Pitfalls of Generative Masked Language Modeling: Theoretical Framework and Practical Guidelines [74.42485647685272]
GMLM(Generative Masked Language Models)に焦点を当てる。
我々は,マルコフ連鎖の入力として使用されるマスキングにより,データ分布の条件付き確率に適合するモデルを訓練し,モデルからサンプルを抽出する。
我々は,T5モデルを並列デコーディングに適応させ,最小品質の犠牲を伴って機械翻訳における2~3倍の高速化を実現した。
論文 参考訳(メタデータ) (2024-07-22T18:00:00Z) - Monotone deep Boltzmann machines [86.50247625239406]
ディープボルツマンマシン(Deep Boltzmann Machine、DBM)は、双対エネルギー関数によって制御される多層確率モデルである。
我々は,各層で任意の自己接続が可能な新しい制限モデルであるモノトンDBMを開発した。
アクティベーションの特定の選択が、変動平均場解を与える固定点反復をもたらすことを示す。
論文 参考訳(メタデータ) (2023-07-11T03:02:44Z) - From Word Models to World Models: Translating from Natural Language to
the Probabilistic Language of Thought [124.40905824051079]
言語インフォームド・シンキングのための計算フレームワークである「構成」を合理的に提案する。
我々は、自然言語から確率論的思考言語への文脈感応的なマッピングとして、言語の意味を定式化する。
LLMは、現実的に適切な言語的意味をキャプチャする文脈依存翻訳を生成することができることを示す。
認知的なモチベーションを持つシンボリックモジュールを統合するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2023-06-22T05:14:00Z) - NxPlain: Web-based Tool for Discovery of Latent Concepts [16.446370662629555]
提案するNxPlainは,潜在概念を用いたモデル予測を記述したWebアプリケーションである。
NxPlainは、深いNLPモデルで学んだ潜在概念を発見し、モデルで学んだ知識の解釈を提供し、使用した概念に基づいてその予測を説明する。
論文 参考訳(メタデータ) (2023-03-06T10:45:24Z) - Masked prediction tasks: a parameter identifiability view [49.533046139235466]
マスク付きトークンの予測に広く用いられている自己教師型学習手法に着目する。
いくつかの予測タスクは識別可能性をもたらすが、他のタスクはそうではない。
論文 参考訳(メタデータ) (2022-02-18T17:09:32Z) - CREPO: An Open Repository to Benchmark Credal Network Algorithms [78.79752265884109]
クレダルネットワークは、確率質量関数の集合であるクレダルに基づく不正確な確率的グラフィカルモデルである。
CREMAと呼ばれるJavaライブラリが最近リリースされ、クレダルネットワークをモデル化し、処理し、クエリする。
我々は,これらのモデル上での推論タスクの正確な結果とともに,合成クレダルネットワークのオープンリポジトリであるcrrepoを提案する。
論文 参考訳(メタデータ) (2021-05-10T07:31:59Z) - This Looks Like That... Does it? Shortcomings of Latent Space Prototype
Explainability in Deep Networks [0.0]
我々は、潜在空間における類似性と入力空間における類似性の間に意味的なギャップがあることを論じる。
具体的には、このネットワークの解釈可能性メカニズムは、意図的に作られた、あるいはJPEG圧縮アーティファクトによっても導かれることがわかっています。
プロトタイプベースのモデルを実際にデプロイする場合、実践者はこのような欠点を念頭に置いておくべきです。
論文 参考訳(メタデータ) (2021-05-05T12:28:34Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。