論文の概要: L\'evy walks derived from a Bayesian decision-making model in
non-stationary environments
- arxiv url: http://arxiv.org/abs/2012.08858v1
- Date: Wed, 16 Dec 2020 10:59:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-03 03:05:50.786399
- Title: L\'evy walks derived from a Bayesian decision-making model in
non-stationary environments
- Title(参考訳): 非定常環境におけるベイズ決定モデルに基づくL'evy walk
- Authors: Shuji Shinohara, Nobuhito Manome, Yoshihiro Nakajima, Yukio Pegio
Gunji, Toru Moriyama, Hiroshi Okamoto, Shunji Mitsuyoshi, Ung-il Chung
- Abstract要約: 学習は,非定常環境における意思決定における信頼度の変化を引き起こす。
ベイズ推論における学習と忘れの影響を紹介するアルゴリズムを提案する。
ブラウンの散歩は普遍的にL'evyになった高信頼性と低信頼状態の混合を歩きます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: L\'evy walks are found in the migratory behaviour patterns of various
organisms, and the reason for this phenomenon has been much discussed. We use
simulations to demonstrate that learning causes the changes in confidence level
during decision-making in non-stationary environments, and results in
L\'evy-walk-like patterns. One inference algorithm involving confidence is
Bayesian inference. We propose an algorithm that introduces the effects of
learning and forgetting into Bayesian inference, and simulate an imitation game
in which two decision-making agents incorporating the algorithm estimate each
other's internal models from their opponent's observational data. For
forgetting without learning, agent confidence levels remained low due to a lack
of information on the counterpart and Brownian walks occurred for a wide range
of forgetting rates. Conversely, when learning was introduced, high confidence
levels occasionally occurred even at high forgetting rates, and Brownian walks
universally became L\'evy walks through a mixture of high- and low-confidence
states.
- Abstract(参考訳): l\'evy walkは様々な生物の回遊行動パターンに見られ、この現象の理由はよく議論されている。
学習が非定常環境における意思決定時の信頼度レベルの変化を引き起こし、l\'evy-walkのようなパターンをもたらすことをシミュレーションを用いて実証する。
信頼を伴う推論アルゴリズムはベイズ推論である。
本稿では,ベイズ推論における学習と忘れの影響を紹介するアルゴリズムを提案し,提案アルゴリズムを組み込んだ2つの意思決定エージェントが,相手の観測データから互いの内部モデルを推定する模倣ゲームを提案する。
学習なしでは、エージェントの信頼度レベルは、相手に関する情報が不足しているため低く、ブラウンの歩行は、幅広い記憶喪失率で発生した。
逆に、学習が導入されたとき、高い信頼度は高い忘れ込み率でも時折発生し、ブラウンの歩行は、高信頼状態と低信頼状態が混在するL''evyの歩行となった。
関連論文リスト
- Diffusing States and Matching Scores: A New Framework for Imitation Learning [16.941612670582522]
敵対的模倣学習は伝統的に、学習者と敵対的に選択されたコスト関数の間の2つのプレイヤーゼロサムゲームとしてフレーム化されている。
近年、拡散モデルはGANの非敵対的な代替品として出現している。
提案手法は, 様々な連続制御問題に対して, GANスタイルの模倣学習ベースラインより優れていることを示す。
論文 参考訳(メタデータ) (2024-10-17T17:59:25Z) - Unlearning-based Neural Interpretations [51.99182464831169]
静的関数を用いて定義される現在のベースラインは、バイアスがあり、脆弱であり、操作可能であることを示す。
UNIは、学習不可能で、偏りがなく、適応的なベースラインを計算し、入力を最も急な上昇の未学習方向に向けて摂動させることを提案する。
論文 参考訳(メタデータ) (2024-10-10T16:02:39Z) - Unconditional Truthfulness: Learning Conditional Dependency for Uncertainty Quantification of Large Language Models [96.43562963756975]
対象変数が条件と非条件生成信頼度のギャップである回帰モデルを訓練する。
この学習条件依存モデルを用いて、前のステップの不確実性に基づいて、現在の生成ステップの不確かさを変調する。
論文 参考訳(メタデータ) (2024-08-20T09:42:26Z) - Factual Confidence of LLMs: on Reliability and Robustness of Current Estimators [6.403926452181712]
大規模言語モデル(LLM)は、その答えの事実において信頼できない傾向にある。
本稿では,事実信頼度の推定者の調査と実証的比較について述べる。
実験により, 訓練された隠れ状態プローブが最も信頼性の高い信頼度を推定できることが示唆された。
論文 参考訳(メタデータ) (2024-06-19T10:11:37Z) - Binary Classification with Confidence Difference [100.08818204756093]
本稿では,信頼性差分法 (ConfDiff) という,弱教師付き二項分類問題について考察する。
本稿では,この問題に対処するためのリスク一貫性のあるアプローチを提案し,推定誤差が最適収束率と一致することを示す。
また,整合性や収束率も証明されたオーバーフィッティング問題を緩和するためのリスク補正手法も導入する。
論文 参考訳(メタデータ) (2023-10-09T11:44:50Z) - PACE-LM: Prompting and Augmentation for Calibrated Confidence Estimation
with GPT-4 in Cloud Incident Root Cause Analysis [17.362895895214344]
大規模言語モデル(LLM)は、人間がクラウドインシデントの根本原因を特定するのに役立つ。
そこで本研究では,オンコール技術者がモデル予測を採用するかどうかの判断を支援するために,予測に対する信頼度推定を行うことを提案する。
提案手法は,推定された根本原因に対する校正された信頼度を推定し,検索した履歴データの有用性と促進戦略を検証できることを示す。
論文 参考訳(メタデータ) (2023-09-11T21:24:00Z) - VLUCI: Variational Learning of Unobserved Confounders for Counterfactual
Inference [11.191748173380539]
因果推論は疫学、医療、経済学など様々な分野において重要な役割を担っている。
因果推論研究において、観測データにおける不一致と反実予測が顕著な関心事として浮上している。
本稿では,反実的推論のための新しい変分学習モデルを提案する。
論文 参考訳(メタデータ) (2023-08-02T01:44:30Z) - Benchmarking common uncertainty estimation methods with
histopathological images under domain shift and label noise [62.997667081978825]
リスクの高い環境では、深層学習モデルは不確実性を判断し、誤分類の可能性がかなり高い場合に入力を拒否しなければなりません。
我々は,全スライド画像の分類において,最もよく使われている不確実性と頑健さの厳密な評価を行う。
我々は一般的に,手法のアンサンブルが,ドメインシフトやラベルノイズに対するロバスト性の向上とともに,より良い不確実性評価につながることを観察する。
論文 参考訳(メタデータ) (2023-01-03T11:34:36Z) - Contributions to Large Scale Bayesian Inference and Adversarial Machine
Learning [0.0]
ML手法の急速な採用により、モデルは通常、予測の不確実性を考慮せずに決定を下すために採用されていることが明らかになった。
我々は,予測的説明の不確実性を考慮したMLシステムの開発が現実のタスクにとって必須であると考えている。
論文 参考訳(メタデータ) (2021-09-25T23:02:47Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z) - Binary Classification from Positive Data with Skewed Confidence [85.18941440826309]
肯定的信頼度(Pconf)分類は、有望な弱教師付き学習法である。
実際には、信頼はアノテーションプロセスで生じるバイアスによって歪められることがある。
本稿では、スキュード信頼度のパラメータ化モデルを導入し、ハイパーパラメータを選択する方法を提案する。
論文 参考訳(メタデータ) (2020-01-29T00:04:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。