論文の概要: Steps Towards Satisficing Distributed Dynamic Team Trust
- arxiv url: http://arxiv.org/abs/2309.05378v2
- Date: Sat, 4 Nov 2023 12:31:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 21:02:31.092508
- Title: Steps Towards Satisficing Distributed Dynamic Team Trust
- Title(参考訳): 分散型動的チームの信頼を満たすためのステップ
- Authors: Edmund R. Hunt, Chris Baber, Mehdi Sobhani, Sanja Milivojevic, Sagir
Yusuf, Mirco Musolesi, Patrick Waterson, Sally Maynard
- Abstract要約: 我々は、人間とロボットの両方が解釈可能な方法で「信頼」を定義することができると論じる。
我々は、模擬ミッションの過程で「満足のいく信頼」の概念を実証できる実験を考える。
- 参考スコア(独自算出の注目度): 3.3714724936935383
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Defining and measuring trust in dynamic, multiagent teams is important in a
range of contexts, particularly in defense and security domains. Team members
should be trusted to work towards agreed goals and in accordance with shared
values. In this paper, our concern is with the definition of goals and values
such that it is possible to define 'trust' in a way that is interpretable, and
hence usable, by both humans and robots. We argue that the outcome of team
activity can be considered in terms of 'goal', 'individual/team values', and
'legal principles'. We question whether alignment is possible at the level of
'individual/team values', or only at the 'goal' and 'legal principles' levels.
We argue for a set of metrics to define trust in human-robot teams that are
interpretable by human or robot team members, and consider an experiment that
could demonstrate the notion of 'satisficing trust' over the course of a
simulated mission.
- Abstract(参考訳): 動的でマルチエージェントなチームに対する信頼の定義と測定は、さまざまな状況、特に防衛とセキュリティの領域において重要です。
チームメンバは、合意された目標と、共有された価値に従って作業することが信頼されるべきです。
本稿では,人間とロボットの両方が「信頼」を解釈可能かつ使用可能な方法で定義できるように,目標と価値の定義について考察する。
チームの活動の結果は、"目標"、"個人的/チーム的価値"、"法的な原則"という観点で考えることができます。
我々は、アライメントが「個人/チーム価値」のレベルで可能か、または「ゴール」と「法的原則」のレベルでのみ可能であるかを疑問視する。
我々は、人間またはロボットチームメンバーによって解釈可能な人間ロボットチームの信頼を定義するための一連のメトリクスを議論し、シミュレーションミッションの過程で「満足できる信頼」の概念を実証できる実験を考えます。
関連論文リスト
- Fostering Trust and Quantifying Value of AI and ML [0.0]
AIとML推論の信頼について多くの議論がなされているが、それが何を意味するのかを定義するためにはほとんど行われていない。
より信頼できる機械学習推論を生み出すことは、製品の価値を高めるための道です。
論文 参考訳(メタデータ) (2024-07-08T13:25:28Z) - Common (good) practices measuring trust in HRI [55.2480439325792]
ロボットへの信頼は、人々の日常生活にロボットを取り入れるのに欠かせないと広く信じられている。
研究者たちは、人々がロボットをさまざまな方法で信頼する方法を模索してきた。
ほとんどのロボティクス学者は、信頼のレベルが不足すると解脱のリスクが生じることに同意する。
論文 参考訳(メタデータ) (2023-11-20T20:52:10Z) - Concept Alignment as a Prerequisite for Value Alignment [11.236150405125754]
価値アライメントは、人々と安全かつ確実に対話できるAIシステムを構築するために不可欠である。
概念のアライメントが体系的な価値のアライメントにどのように結びつくかを示します。
我々は、人の概念や価値観を共同で推論することで、このような障害モードを最小化するアプローチについて説明する。
論文 参考訳(メタデータ) (2023-10-30T22:23:15Z) - Value Kaleidoscope: Engaging AI with Pluralistic Human Values, Rights, and Duties [68.66719970507273]
価値多元性とは、複数の正しい値が互いに緊張して保持されるという考え方である。
統計的学習者として、AIシステムはデフォルトで平均に適合する。
ValuePrismは、218kの値、権利、義務の大規模なデータセットで、31kの人間が記述した状況に関連付けられています。
論文 参考訳(メタデータ) (2023-09-02T01:24:59Z) - Adapting Behaviour Based On Trust In Human-Agent Ad Hoc Teamwork [0.0]
この研究は、ヒューマンエージェントチームによるアドホックなチームワークシナリオへの信頼を取り入れたフレームワークを提案する。
我々は、信頼レベルに基づいて異なる設定を定義するために、実験で人間の参加者からデータを収集します。
このフレームワークを現実のシナリオで検証し、この適応可能な振る舞いが信頼にどのように影響するかを分析する。
論文 参考訳(メタデータ) (2022-10-13T11:28:58Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Evaluation of Performance-Trust vs Moral-Trust Violation in 3D
Environment [1.4502611532302039]
本研究の目的は,探索・救助シナリオにおいて,パフォーマンストラスト違反とモラルトラスト違反がもたらす影響を調査する実験を設計することである。
同じようなロボットの障害が2つあり、1つはパフォーマンストラスト違反によるもので、もう1つはモラルトラスト違反によるもので、人間の信頼に明確な影響があるかどうかを確認したい。
論文 参考訳(メタデータ) (2022-06-30T17:27:09Z) - Trust-Aware Planning: Modeling Trust Evolution in Longitudinal
Human-Robot Interaction [21.884895329834112]
本稿では,人間-ロボット間インタラクションにおける信頼をキャプチャし,変調する計算モデルを提案する。
我々のモデルでは、ロボットは人間の信頼とロボットからの期待をその計画プロセスに統合し、相互作用の地平線に対する信頼を構築し維持する。
論文 参考訳(メタデータ) (2021-05-03T23:38:34Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - How Much Can We Really Trust You? Towards Simple, Interpretable Trust
Quantification Metrics for Deep Neural Networks [94.65749466106664]
我々は思考実験を行い、信頼と信頼に関する2つの重要な疑問を探求する。
我々は、一連の質問に答える際の行動に基づいて、ディープニューラルネットワークの全体的な信頼性を評価するための一連のメトリクスを紹介します。
提案されたメトリクスは必ずしも完璧ではありませんが、よりよいメトリクスに向かって会話を推し進めることが望まれています。
論文 参考訳(メタデータ) (2020-09-12T17:37:36Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。