論文の概要: Finding the Loops that Matter
- arxiv url: http://arxiv.org/abs/2006.08425v1
- Date: Wed, 27 May 2020 22:27:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 09:05:15.500058
- Title: Finding the Loops that Matter
- Title(参考訳): 重要なループを見つける
- Authors: Robert Eberlein, William Schoenberg
- Abstract要約: Matterメソッドのループは、各時点の振る舞いに対するモデル内のフィードバックループの貢献を示すメトリクスを提供します。
本稿では,シミュレーションの異なる点において重要なループを含めることの必要性を示す。
次に、徹底的なループ発見にはフィードバックが豊富すぎるモデルにおいて、最も重要なループを発見するために使用できるアルゴリズムを記述します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Loops that Matter method (Schoenberg et. al, 2019) for understanding
model behavior provides metrics showing the contribution of the feedback loops
in a model to behavior at each point in time. To provide these metrics, it is
necessary find the set of loops on which to compute them. We show in this paper
the necessity of including loops that are important at different points in the
simulation. These important loops may not be independent of one another and
cannot be determined from static analysis of the model structure. We then
describe an algorithm that can be used to discover the most important loops in
models that are too feedback rich for exhaustive loop discovery. We demonstrate
the use of this algorithm in terms of its ability to find the most explanatory
loops, and its computational performance for large models. By using this
approach, the Loops that Matter method can be applied to models of any size or
complexity.
- Abstract(参考訳): モデルの振る舞いを理解するためのmatterメソッド(schoenberg et. al, 2019)は、モデル内のフィードバックループが各時点の振る舞いに寄与することを示すメトリクスを提供する。
これらのメトリクスを提供するには、それらを計算するためのループのセットを見つける必要がある。
本稿では,シミュレーションの異なる点において重要なループを含めることの必要性を示す。
これらの重要なループは互いに独立ではなく、モデル構造の静的解析から決定することはできない。
次に、徹底的なループ発見にはフィードバックが豊富すぎるモデルにおいて、最も重要なループを発見するために使用できるアルゴリズムを記述する。
我々は,このアルゴリズムを,最も説明可能なループを見つける能力と,大規模モデルに対する計算性能の観点から実証する。
このアプローチを用いることで、matterメソッドのループを任意のサイズや複雑さのモデルに適用することができる。
関連論文リスト
- Inference-Time Alignment in Diffusion Models with Reward-Guided Generation: Tutorial and Review [59.856222854472605]
このチュートリアルは、拡散モデルにおける下流の報酬関数を最適化するための推論時ガイダンスとアライメント方法に関する詳細なガイドを提供する。
生物学のような分野における実践的な応用は、しばしば特定の指標を最大化するサンプル生成を必要とする。
本稿では,(1)推論時と組み合わせた微調整手法,(2)モンテカルロ木探索などの探索アルゴリズムに基づく推論時アルゴリズム,(3)言語モデルと拡散モデルにおける推論時アルゴリズムの接続について論じる。
論文 参考訳(メタデータ) (2025-01-16T17:37:35Z) - Loop Neural Networks for Parameter Sharing [1.1049608786515839]
本稿では,モデルサイズを増大させることなく,より長い計算時間を活用することにより,より優れた性能を実現するループニューラルネットワークを提案する。
提案手法では,残差接続を持つモデルのサブセットを反復的にループすることで,入力を複数回再検討する。
本手法の有効性を,GPT-2とループモデルの比較実験により実証し,類似したパラメータ数を維持しつつ,言語モデリングタスクの性能向上を示す。
論文 参考訳(メタデータ) (2024-09-21T17:07:42Z) - Invariant Relations: A Bridge from Programs to Equations [1.3342735568824553]
任意のレベルにネストしたループを持つプログラムを含む,C型プログラムの関数を導出する手法を提案する。
ループの意味を捉えるために、不変関係の概念を用いる。
論文 参考訳(メタデータ) (2023-10-07T04:11:23Z) - Tractable Bounding of Counterfactual Queries by Knowledge Compilation [51.47174989680976]
本稿では, パール構造因果モデルにおいて, 因果関係などの部分的特定可能なクエリのバウンダリングの問題について議論する。
最近提案された反復EMスキームは初期化パラメータをサンプリングしてそれらの境界を内部近似する。
シンボルパラメータを実際の値に置き換えた回路構造を,単一のシンボル知識コンパイルによって得られることを示す。
論文 参考訳(メタデータ) (2023-10-05T07:10:40Z) - An Efficient Algorithm for Clustered Multi-Task Compressive Sensing [60.70532293880842]
クラスタ化マルチタスク圧縮センシングは、複数の圧縮センシングタスクを解決する階層モデルである。
このモデルに対する既存の推論アルゴリズムは計算コストが高く、高次元ではうまくスケールしない。
本稿では,これらの共分散行列を明示的に計算する必要をなくし,モデル推論を大幅に高速化するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-09-30T15:57:14Z) - Self-optimizing loop sifting and majorization for 3D reconstruction [0.6091702876917281]
VSLAMシステムは、偽ループの深刻な影響を減らすためにループを非常に保守的に追加する傾向がある。
本稿では,ループ検出をふるいにかけ,主要化できるアルゴリズムを提案する。
提案するアルゴリズムは,異なるループの有用性と有効性を,密度マップ後部(DMP)メトリックと比較することができる。
論文 参考訳(メタデータ) (2021-04-22T01:59:19Z) - Finding Geometric Models by Clustering in the Consensus Space [61.65661010039768]
本稿では,未知数の幾何学的モデル,例えばホモグラフィーを求めるアルゴリズムを提案する。
複数の幾何モデルを用いることで精度が向上するアプリケーションをいくつか提示する。
これには、複数の一般化されたホモグラフからのポーズ推定、高速移動物体の軌道推定が含まれる。
論文 参考訳(メタデータ) (2021-03-25T14:35:07Z) - Weakly measured while loops: peeking at quantum states [0.0]
whileループは、量子コンピュータ上の各イテレーションで終了条件をテストする。
弱い測定値を用いて時間ループプリミティブを定義し、摂動と反復毎に得られる情報量とのトレードオフを提供する。
任意に高い確率で、ループが実行するイテレーションの数を最悪のケースで見積もることができる十分な条件を提供しています。
論文 参考訳(メタデータ) (2020-09-18T13:33:43Z) - Context-aware and Scale-insensitive Temporal Repetition Counting [60.40438811580856]
時間的反復カウントは、与えられた反復行動のサイクル数を推定することを目的としている。
既存のディープラーニング手法は、実生活における複雑な反復行動に対して無効である固定された時間スケールで繰り返し動作が実行されると仮定する。
本稿では,未知かつ多様なサイクル長による繰り返しカウントの課題に対処するための文脈認識・スケール非感性フレームワークを提案する。
論文 参考訳(メタデータ) (2020-05-18T05:49:48Z) - Consistency of a Recurrent Language Model With Respect to Incomplete
Decoding [67.54760086239514]
逐次言語モデルから無限長のシーケンスを受信する問題について検討する。
不整合に対処する2つの対策として、トップkと核サンプリングの一貫性のある変種と、自己終端の繰り返し言語モデルを提案する。
論文 参考訳(メタデータ) (2020-02-06T19:56:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。