論文の概要: Collaborative Trustworthiness for Good Decision Making in Autonomous Systems
- arxiv url: http://arxiv.org/abs/2507.11135v1
- Date: Tue, 15 Jul 2025 09:37:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-16 19:46:03.055869
- Title: Collaborative Trustworthiness for Good Decision Making in Autonomous Systems
- Title(参考訳): 自律システムにおける良質な意思決定のための協調的信頼性
- Authors: Selma Saidi, Omar Laimona, Christoph Schmickler, Dirk Ziegenbein,
- Abstract要約: 本稿では,運用環境における信頼度を高めるための総合的な協調的アプローチを提案する。
矛盾する情報が存在する場合、アグリゲーションは、コラボレーティブなデータ共有に基づく信頼できる意思決定において、大きな問題となる。
私たちは、信念の集約と伝播の形式モデルとしてバイナリ決定図(BDD)を使用し、BDDのサイズを減らすために削減ルールを定式化します。
- 参考スコア(独自算出の注目度): 0.26999000177990923
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous systems are becoming an integral part of many application domains, like in the mobility sector. However, ensuring their safe and correct behaviour in dynamic and complex environments remains a significant challenge, where systems should autonomously make decisions e.g., about manoeuvring. We propose in this paper a general collaborative approach for increasing the level of trustworthiness in the environment of operation and improve reliability and good decision making in autonomous system. In the presence of conflicting information, aggregation becomes a major issue for trustworthy decision making based on collaborative data sharing. Unlike classical approaches in the literature that rely on consensus or majority as aggregation rule, we exploit the fact that autonomous systems have different quality attributes like perception quality. We use this criteria to determine which autonomous systems are trustworthy and borrow concepts from social epistemology to define aggregation and propagation rules, used for automated decision making. We use Binary Decision Diagrams (BDDs) as formal models for beliefs aggregation and propagation, and formulate reduction rules to reduce the size of the BDDs and allow efficient computation structures for collaborative automated reasoning.
- Abstract(参考訳): 自律システムは、モビリティ分野のように、多くのアプリケーション領域において不可欠な部分になりつつある。
しかしながら、動的で複雑な環境での安全性と正しい行動を保証することは、システムが自律的に意思決定を行うべき重要な課題である。
本稿では,運転環境における信頼性の向上と,自律システムにおける信頼性向上と意思決定性向上のための総合的な協調的アプローチを提案する。
矛盾する情報が存在する場合、アグリゲーションは、コラボレーティブなデータ共有に基づく信頼できる意思決定において、大きな問題となる。
コンセンサスやアグリゲーションルールに頼っている古典的手法とは異なり、自律システムは知覚品質のような品質特性が異なるという事実を生かしている。
我々は、この基準を用いて、どの自律システムが信頼できるのかを判断し、社会認識学から概念を借りて、自動意思決定に使用される集約と伝播ルールを定義する。
我々は、信念の集約と伝播のための形式モデルとしてバイナリ決定図(BDD)を使用し、BDDのサイズを減らし、協調的な自動推論のための効率的な計算構造を可能にするために削減ルールを定式化します。
関連論文リスト
- Resource Rational Contractualism Should Guide AI Alignment [69.07915246220985]
契約主義的アライメントは、多様な利害関係者が支持する合意の中で決定を下すことを提案する。
我々は、AIシステムが合理的な当事者が形成する合意を近似する枠組みであるリソース・リアリズムを提案する。
RRC対応エージェントは、効率的に機能するだけでなく、変化する人間の社会世界への適応と解釈を動的に行うことができる。
論文 参考訳(メタデータ) (2025-06-20T18:57:13Z) - Achieving Unanimous Consensus in Decision Making Using Multi-Agents [0.0]
本稿では,Large Language Models (LLMs) が一貫した合意に達するために構造化された議論を行う合理的エージェントとして機能する,新しい議論に基づくコンセンサス機構を提案する。
段階的なコンセンサスと複数ラウンドの議論プロセスを活用することで、決定的問題に対する全会一致と、優先順位付けされた決定と政策に対する格付けされた信頼の両立が保証される。
また、思考、幻覚、悪意あるモデルとノード、リソース消費、スケーラビリティなどの新しいアプローチで重要な課題に対処する。
論文 参考訳(メタデータ) (2025-04-02T21:02:54Z) - Causality Is Key to Understand and Balance Multiple Goals in Trustworthy ML and Foundation Models [91.24296813969003]
本稿では,機械学習に因果的手法を取り入れて,信頼性の高いMLの主要な原則間のトレードオフをナビゲートすることを提唱する。
我々は、信頼できるMLと基礎モデルの両方において、複数の競合する目標のバランスをとるためには、因果的アプローチが不可欠であると主張する。
論文 参考訳(メタデータ) (2025-02-28T14:57:33Z) - Position: Emergent Machina Sapiens Urge Rethinking Multi-Agent Paradigms [8.177915265718703]
AIエージェントは、目的を動的に調整する権限を持つべきだ、と私たちは主張する。
私たちは、これらのマルチエージェントAIシステムの創発的で、自己組織化され、コンテキストに配慮した性質へのシフトを呼びかけます。
論文 参考訳(メタデータ) (2025-02-05T22:20:15Z) - A Trust-Centric Approach To Quantifying Maturity and Security in Internet Voting Protocols [0.9831489366502298]
本稿では,インターネット投票システムのセキュリティと成熟度を定量化する,信頼中心の成熟度スコアリングフレームワークを提案する。
選択したインターネット投票プロトコルに対して包括的信頼モデル解析を行う。
このフレームワークは、分散化、信頼、セキュリティの側面が不可欠である他のシステムに適用できるほど一般的です。
論文 参考訳(メタデータ) (2024-12-13T23:33:38Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - A hierarchical control framework for autonomous decision-making systems:
Integrating HMDP and MPC [9.74561942059487]
本稿では,ロボット工学および自律システムにおける自律的意思決定のための包括的階層的制御フレームワークを提案する。
コントロール設計のために低レベルで使用される従来の継続的システムのダイナミクスと、ハイレベルな意思決定を容易にするための離散マルコフ決定プロセス(MDP)との間の複雑な相互作用に対処する。
提案手法は、インテリジェントな車両のための自律車線変更システムの開発に応用される。
論文 参考訳(メタデータ) (2024-01-12T15:25:51Z) - Collective Reasoning for Safe Autonomous Systems [0.0]
我々は,集合的知性に頼って自律システムの信頼性を高めるという考え方を紹介する。
我々は、共同で安全、信頼性、優れた意思決定を達成するために、集合的推論のための設計規則を定義し、定式化する。
論文 参考訳(メタデータ) (2023-05-18T20:37:32Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [62.61153549123407]
建設のギャップを狭めるために観測結果と組み合わせることができる情報源として,歴史専門家による意思決定の利用について検討する。
本研究では,データ内の各ケースが1人の専門家によって評価された場合に,専門家の一貫性を間接的に推定する影響関数に基づく手法を提案する。
本研究は, 児童福祉領域における臨床現場でのシミュレーションと実世界データを用いて, 提案手法が構成ギャップを狭めることに成功していることを示す。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - Decentralized Reinforcement Learning: Global Decision-Making via Local
Economic Transactions [80.49176924360499]
我々は、シーケンシャルな意思決定問題を解決するために、単純で専門的で自己関心のあるエージェントの社会を指示する枠組みを確立する。
我々は分散強化学習アルゴリズムのクラスを導出する。
我々は、より効率的な移動学習のための社会固有のモジュラー構造の潜在的な利点を実証する。
論文 参考訳(メタデータ) (2020-07-05T16:41:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。