論文の概要: On simplification of Dual-Youla approach for closed-loop identification
- arxiv url: http://arxiv.org/abs/2012.08165v1
- Date: Tue, 15 Dec 2020 09:34:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-07 05:07:16.416604
- Title: On simplification of Dual-Youla approach for closed-loop identification
- Title(参考訳): 閉ループ同定のためのDual-Youlaアプローチの単純化について
- Authors: Toshiharu Sugie and Ichiro Maruta
- Abstract要約: 本稿では,同素因子分解を伴わずに植物自体を同定する手法の簡易版を導出する方法を示す。
この単純化版は著者らが提案した安定化予測誤差法と同一であることが判明した。
- 参考スコア(独自算出の注目度): 0.45687771576879593
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The dual Youla method for closed loop identification is known to have several
practically important merits. Namely, it provides an accurate plant model
irrespective of noise models, and fits inherently to handle unstable plants by
using coprime factorization. In addition, the method is empirically robust
against the uncertainty of the controller knowledge. However, use of coprime
factorization may cause a big barrier against industrial applications. This
paper shows how to derive a simplified version of the method which identifies
the plant itself without coprime factorization, while enjoying all the merits
of the dual Youla method. This simplified version turns out to be identical to
the stabilized prediction error method which was proposed by the authors
recently. Detailed simulation results are given to demonstrate the above
merits.
- Abstract(参考訳): 閉ループ同定のための双対 youla 法には、実用上重要な点がいくつかあることが知られている。
すなわち、ノイズモデルに関係なく正確な植物モデルを提供し、コリメ分解を用いて不安定な植物を扱うために本質的に適合する。
さらに,この手法は制御者の知識の不確実性に対して実証的に堅牢である。
しかし、コプライム分解の使用は工業用途に対する大きな障壁となる可能性がある。
そこで本論文では,2つのYoula手法のメリットを享受しながら,相乗分解を伴わず植物自体を同定する手法の簡易版を導出する方法について述べる。
この単純化版は、著者らが最近提案した安定化予測誤差法と同一であることが判明した。
上記の利点を示すために、詳細なシミュレーション結果が示される。
関連論文リスト
- SinSR: Diffusion-Based Image Super-Resolution in a Single Step [119.18813219518042]
拡散モデルに基づく超解像(SR)法は有望な結果を示す。
しかし、それらの実践的応用は、必要な推論ステップのかなりの数によって妨げられている。
本稿では,SinSRという単一ステップのSR生成を実現するための,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2023-11-23T16:21:29Z) - The Lipschitz-Variance-Margin Tradeoff for Enhanced Randomized Smoothing [91.51897617724816]
ディープニューラルネットワークの現実的な応用は、ノイズの多い入力や敵攻撃に直面した場合、その不安定な予測によって妨げられる。
本稿では,モンテカルロサンプリングによるランダムな平滑化過程推定における分散が,分類器のリプシッツ定数とマージンと密接な相互作用を示す。
我々はベルンシュタインの濃度不等式と拡張されたリプシッツ境界をランダム化平滑化に利用し、実験結果から現在の最先端手法と比較して精度が著しく向上したことを示す。
論文 参考訳(メタデータ) (2023-09-28T22:41:47Z) - CeFlow: A Robust and Efficient Counterfactual Explanation Framework for
Tabular Data using Normalizing Flows [11.108866104714627]
対実的説明は、望ましい結果を達成するためにサンプルの摂動を生成する解釈可能な機械学習の一形態である。
可変オートエンコーダ (VAE) を用いて実現可能な改善を実現するために, 最先端の対実的説明法を提案する。
我々は,連続的特徴と分類的特徴の混合型に対して正規化フローを利用する,堅牢で効率的な対実的説明フレームワークであるCeFlowを設計する。
論文 参考訳(メタデータ) (2023-03-26T09:51:04Z) - Composed Image Retrieval with Text Feedback via Multi-grained
Uncertainty Regularization [73.04187954213471]
粗い検索ときめ細かい検索を同時にモデル化する統合学習手法を提案する。
提案手法は、強いベースラインに対して+4.03%、+3.38%、+2.40%のRecall@50精度を達成した。
論文 参考訳(メタデータ) (2022-11-14T14:25:40Z) - Don't Lie to Me! Robust and Efficient Explainability with Verified
Perturbation Analysis [6.15738282053772]
摂動空間を徹底的に探索することを保証する最初の説明可能性法であるEVAを紹介する。
モデル決定を駆動する可能性が最も高い入力変数を効率よく特徴付けるために、検証された摂動解析の有益性を利用する。
論文 参考訳(メタデータ) (2022-02-15T21:13:55Z) - Deblurring via Stochastic Refinement [85.42730934561101]
条件付き拡散モデルに基づくブラインドデブロアリングのための代替フレームワークを提案する。
提案手法は,PSNRなどの歪み指標の点で競合する。
論文 参考訳(メタデータ) (2021-12-05T04:36:09Z) - SmoothMix: Training Confidence-calibrated Smoothed Classifiers for
Certified Robustness [61.212486108346695]
自己混合によるスムーズな分類器のロバスト性を制御するためのトレーニングスキームSmoothMixを提案する。
提案手法は, 厳密性に制限された原因として, 信頼性の低い, オフクラスに近いサンプルを効果的に同定する。
提案手法はスムーズな分類器の検証値である$ell$-robustnessを大幅に改善できることを示す。
論文 参考訳(メタデータ) (2021-11-17T18:20:59Z) - Estimation of Bivariate Structural Causal Models by Variational Gaussian
Process Regression Under Likelihoods Parametrised by Normalising Flows [74.85071867225533]
因果機構は構造因果モデルによって記述できる。
最先端の人工知能の大きな欠点の1つは、説明責任の欠如である。
論文 参考訳(メタデータ) (2021-09-06T14:52:58Z) - FRITL: A Hybrid Method for Causal Discovery in the Presence of Latent
Confounders [46.31784571870808]
いくつかの穏やかな仮定の下では、モデルがハイブリッドメソッドによって一意に識別されることを示す。
本手法は,制約ベース手法と独立ノイズベース手法の利点を生かして,共起状況と未解決状況の両方を扱う。
論文 参考訳(メタデータ) (2021-03-26T03:12:14Z) - Reliable Post hoc Explanations: Modeling Uncertainty in Explainability [44.9824285459365]
ブラックボックスの説明は、高レベルの設定でモデルの信頼性を確立するために、ますます採用されている。
先行研究では、最先端の技術が生み出す説明は一貫性がなく不安定であり、その正確性や信頼性についての洞察はほとんど得られないことが示されている。
局所的な説明と関連する不確実性を生成するための新しいベイズ的枠組みを開発する。
論文 参考訳(メタデータ) (2020-08-11T22:52:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。