論文の概要: Trust model of privacy-concerned, emotionally-aware agents in a
cooperative logistics problem
- arxiv url: http://arxiv.org/abs/2401.14436v1
- Date: Thu, 25 Jan 2024 13:31:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-29 17:00:25.924124
- Title: Trust model of privacy-concerned, emotionally-aware agents in a
cooperative logistics problem
- Title(参考訳): 協調ロジスティクス問題におけるプライバシ意識・感情認識エージェントの信頼モデル
- Authors: J. Carbo, J.M. Molina
- Abstract要約: 本研究では,人間と無人車両が協調する仮説混合環境に使用される信頼モデルを提案する。
我々は,信頼モデルに感情を組み込むことを,現在の心理学理論に対する実践的アプローチの一貫性のある方法で解決する。
最も革新的な貢献は、プライバシの問題が感情的信頼モデルの協力決定にどのように関与するかである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper we propose a trust model to be used into a hypothetical mixed
environment where humans and unmanned vehicles cooperate. We address the
inclusion of emotions inside a trust model in a coherent way to the practical
approaches to the current psychology theories. The most innovative contribution
is how privacy issues play a role in the cooperation decisions of the emotional
trust model. Both, emotions and trust have been cognitively modeled and managed
with the Beliefs, Desires and Intentions (BDI) paradigm into autonomous agents
implemented in GAML (the programming language of GAMA agent platform) that
communicates using the IEEE FIPA standard. The trusting behaviour of these
emotional agents is tested in a cooperative logistics problem where: agents
have to move objects to destinations and some of the objects and places have
privacy issues. The execution of simulations of this logistic problem shows how
emotions and trust contribute to improve the performance of agents in terms of
both, time savings and privacy protection
- Abstract(参考訳): 本稿では,人間と無人車両が協調する仮説混合環境に使用される信頼モデルを提案する。
我々は,信頼モデルに感情を組み込むことを,現在の心理学理論に対する実践的アプローチの一貫性のある方法で解決する。
最も革新的な貢献は、プライバシの問題が感情的信頼モデルの協力決定にどのように関与するかである。
感情と信頼はどちらも、IEEE FIPA標準を使用して通信するGAML(GAMAエージェントプラットフォームのプログラミング言語)で実装された自律エージェントに、BDIパラダイムを用いて認知的にモデル化され、管理されている。
これらの感情的エージェントの信頼行動は、協調的ロジスティクス問題においてテストされる: エージェントはオブジェクトを目的地に移動し、オブジェクトや場所の一部にプライバシー上の問題がある。
このロジスティックな問題のシミュレーションの実行は、感情と信頼が、時間の節約とプライバシー保護の両方の観点からエージェントのパフォーマンスを改善するのにどのように寄与するかを示しています。
関連論文リスト
- Learning responsibility allocations for multi-agent interactions: A differentiable optimization approach with control barrier functions [12.074590482085831]
責任レンズを介して安全なマルチエージェントインタラクションを規定する要因を定式化する。
本稿では,制御障壁関数と微分可能最適化に基づくデータ駆動モデリング手法を提案する。
論文 参考訳(メタデータ) (2024-10-09T20:20:41Z) - HAICOSYSTEM: An Ecosystem for Sandboxing Safety Risks in Human-AI Interactions [76.42274173122328]
本稿では,多様な複雑な社会的相互作用におけるAIエージェントの安全性を調べるフレームワークであるHAICOSYSTEMを提案する。
私たちは7つの領域(医療、金融、教育など)にわたる92のシナリオに基づいて1840のシミュレーションを実行します。
我々の実験は、最先端のLSMは、プロプライエタリかつオープンソースの両方で、50%以上のケースで安全リスクを示すことを示した。
論文 参考訳(メタデータ) (2024-09-24T19:47:21Z) - Trusting Your AI Agent Emotionally and Cognitively: Development and Validation of a Semantic Differential Scale for AI Trust [16.140485357046707]
感情的・認知的信頼のための27項目のセマンティック・ディファレンシャル・スケールを開発し,検証した。
我々の経験的発見は、信頼の感情的側面と認知的側面が相互にどのように相互作用し、AIエージェントに対する個人の全体的な信頼を形成するかを示した。
論文 参考訳(メタデータ) (2024-07-25T18:55:33Z) - Can Large Language Model Agents Simulate Human Trust Behavior? [81.45930976132203]
本研究では,Large Language Model (LLM) エージェントが人間の信頼行動をシミュレートできるかどうかを検討する。
GPT-4は、信頼行動の観点から、人間と高い行動アライメントを示す。
また、エージェント信頼のバイアスや、他のLSMエージェントや人間に対するエージェント信頼の差についても検討する。
論文 参考訳(メタデータ) (2024-02-07T03:37:19Z) - AgentCF: Collaborative Learning with Autonomous Language Agents for
Recommender Systems [112.76941157194544]
本稿では,エージェントベースの協調フィルタリングにより,レコメンデータシステムにおけるユーザとイテムのインタラクションをシミュレートするエージェントCFを提案する。
我々は、ユーザだけでなく、アイテムをエージェントとして、創造的に考慮し、両方のエージェントを同時に最適化する協調学習アプローチを開発します。
全体として、最適化されたエージェントは、ユーザ・イテム、ユーザ・ユーザ・ユーザ、アイテム・イテム、集合的インタラクションなど、フレームワーク内での多様なインタラクションの振る舞いを示す。
論文 参考訳(メタデータ) (2023-10-13T16:37:14Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - AGENT: A Benchmark for Core Psychological Reasoning [60.35621718321559]
直観心理学は、観察可能な行動を駆動する隠された精神変数を推論する能力です。
他のエージェントを推論する機械エージェントに対する近年の関心にもかかわらず、そのようなエージェントが人間の推論を駆動するコア心理学の原則を学ぶか保持するかは明らかではない。
本稿では,プロシージャが生成する3dアニメーション,エージェントを4つのシナリオで構成したベンチマークを提案する。
論文 参考訳(メタデータ) (2021-02-24T14:58:23Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - Agent-Based Simulation of Collective Cooperation: From Experiment to
Model [0.0]
我々は,人が密集した静的な群集を通り抜けたときに何が起こるのかを観察する実験を行う。
我々は,協力を必要とする状況に対するエージェントの認識と認知処理を取り入れたモデルを構築した。
エージェントが密集した群衆をうまく通過する能力は、心理的モデルの効果として現れる。
論文 参考訳(メタデータ) (2020-05-26T13:29:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。