論文の概要: Vision-Based System Identification of a Quadrotor
- arxiv url: http://arxiv.org/abs/2511.06839v1
- Date: Mon, 10 Nov 2025 08:31:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.161994
- Title: Vision-Based System Identification of a Quadrotor
- Title(参考訳): 視覚に基づく擬似ロボットのシステム同定
- Authors: Selim Ahmet Iz, Mustafa Unel,
- Abstract要約: 本稿では,視覚に基づくシステム識別技術の四重項モデリングおよび制御への応用について検討する。
グレーボックスモデリングを用いて不確実性を緩和し,車載視覚システムの有効性を評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper explores the application of vision-based system identification techniques in quadrotor modeling and control. Through experiments and analysis, we address the complexities and limitations of quadrotor modeling, particularly in relation to thrust and drag coefficients. Grey-box modeling is employed to mitigate uncertainties, and the effectiveness of an onboard vision system is evaluated. An LQR controller is designed based on a system identification model using data from the onboard vision system. The results demonstrate consistent performance between the models, validating the efficacy of vision based system identification. This study highlights the potential of vision-based techniques in enhancing quadrotor modeling and control, contributing to improved performance and operational capabilities. Our findings provide insights into the usability and consistency of these techniques, paving the way for future research in quadrotor performance enhancement, fault detection, and decision-making processes.
- Abstract(参考訳): 本稿では,視覚に基づくシステム識別技術の四重項モデリングおよび制御への応用について検討する。
実験と解析を通じて、特に推力係数とドラッグ係数に関して、四重項モデリングの複雑さと限界に対処する。
グレーボックスモデリングを用いて不確実性を緩和し,車載視覚システムの有効性を評価する。
LQRコントローラは、搭載された視覚システムからのデータを用いて、システム識別モデルに基づいて設計される。
その結果、モデル間の一貫した性能を示し、視覚に基づくシステム同定の有効性を検証した。
本研究は、四重項モデリングと制御の強化における視覚ベースの技術の可能性を強調し、性能と運用能力の向上に寄与する。
本研究は,これらの手法のユーザビリティと整合性に関する知見を提供し,今後の四重項性能向上,故障検出,意思決定プロセス研究の道を開くものである。
関連論文リスト
- Automated Detection of Visual Attribute Reliance with a Self-Reflective Agent [58.90049897180927]
視覚モデルにおける視覚的特徴の意図しない依存を検出するための自動フレームワークを提案する。
自己反射エージェントは、モデルが依存する可能性のある視覚特性に関する仮説を生成し、テストする。
我々は,視覚特性の多様さを示すために設計された130モデルの新しいベンチマークに対して,我々のアプローチを評価した。
論文 参考訳(メタデータ) (2025-10-24T17:59:02Z) - Efficient Vision-Language-Action Models for Embodied Manipulation: A Systematic Survey [13.43815806675263]
VLA(Vision-Language-Action)モデルは、自然言語の指示と視覚的な観察をロボットの行動にマッピングすることで、視覚言語モデルを拡張し、制御を具体化する。
これらの能力にもかかわらず、VLAシステムは膨大な計算とメモリ要求のために重大な課題に直面している。
論文 参考訳(メタデータ) (2025-10-20T02:59:45Z) - Online Identification of IT Systems through Active Causal Learning [1.7188280334580195]
本稿では,ITシステムの因果モデルによるオンライン・データ駆動型識別のための最初の原理的手法を提案する。
本手法は,システム操作に対する低干渉を誘導しながら,因果系モデルの正確な同定を可能にする。
論文 参考訳(メタデータ) (2025-09-02T09:25:36Z) - Explanatory Model Monitoring to Understand the Effects of Feature Shifts on Performance [61.06245197347139]
そこで本研究では,機能シフトによるブラックボックスモデルの振る舞いを説明する新しい手法を提案する。
本稿では,最適輸送と共有値の概念を組み合わせた提案手法について,説明的性能推定として紹介する。
論文 参考訳(メタデータ) (2024-08-24T18:28:19Z) - Robustness and Generalization Performance of Deep Learning Models on
Cyber-Physical Systems: A Comparative Study [71.84852429039881]
調査は、センサーの故障やノイズなど、様々な摂動を扱うモデルの能力に焦点を当てている。
我々は,これらのモデルの一般化と伝達学習能力を,アウト・オブ・ディストリビューション(OOD)サンプルに公開することによって検証する。
論文 参考訳(メタデータ) (2023-06-13T12:43:59Z) - System Resilience through Health Monitoring and Reconfiguration [56.448036299746285]
人為的なシステムのレジリエンスを、予期せぬ事象に対して向上させるためのエンドツーエンドのフレームワークを実証する。
このフレームワークは物理ベースのデジタルツインモデルと,リアルタイム故障診断,予後,再構成を行う3つのモジュールに基づいている。
論文 参考訳(メタデータ) (2022-08-30T20:16:17Z) - Cognitive Visual Inspection Service for LCD Manufacturing Industry [80.63336968475889]
本論文では,現在FPD業界で主流となっている液晶ディスプレイ(LCD)の視覚検査システムについて述べる。
システムは、堅牢/高性能欠陥認識モデルと認知視覚検査サービスアーキテクチャの2つの基礎に基づいています。
論文 参考訳(メタデータ) (2021-01-11T08:14:35Z) - Unadversarial Examples: Designing Objects for Robust Vision [100.4627585672469]
現代の機械学習アルゴリズムの感度を入力摂動に活かし、「ロバストオブジェクト」を設計するフレームワークを開発しています。
標準ベンチマークから(シミュレーション中)ロボット工学まで,さまざまな視覚ベースのタスクに対するフレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2020-12-22T18:26:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。