論文の概要: Trust model of privacy-concerned, emotionally-aware agents in a
cooperative logistics problem
- arxiv url: http://arxiv.org/abs/2401.14436v1
- Date: Thu, 25 Jan 2024 13:31:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-29 17:00:25.924124
- Title: Trust model of privacy-concerned, emotionally-aware agents in a
cooperative logistics problem
- Title(参考訳): 協調ロジスティクス問題におけるプライバシ意識・感情認識エージェントの信頼モデル
- Authors: J. Carbo, J.M. Molina
- Abstract要約: 本研究では,人間と無人車両が協調する仮説混合環境に使用される信頼モデルを提案する。
我々は,信頼モデルに感情を組み込むことを,現在の心理学理論に対する実践的アプローチの一貫性のある方法で解決する。
最も革新的な貢献は、プライバシの問題が感情的信頼モデルの協力決定にどのように関与するかである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper we propose a trust model to be used into a hypothetical mixed
environment where humans and unmanned vehicles cooperate. We address the
inclusion of emotions inside a trust model in a coherent way to the practical
approaches to the current psychology theories. The most innovative contribution
is how privacy issues play a role in the cooperation decisions of the emotional
trust model. Both, emotions and trust have been cognitively modeled and managed
with the Beliefs, Desires and Intentions (BDI) paradigm into autonomous agents
implemented in GAML (the programming language of GAMA agent platform) that
communicates using the IEEE FIPA standard. The trusting behaviour of these
emotional agents is tested in a cooperative logistics problem where: agents
have to move objects to destinations and some of the objects and places have
privacy issues. The execution of simulations of this logistic problem shows how
emotions and trust contribute to improve the performance of agents in terms of
both, time savings and privacy protection
- Abstract(参考訳): 本稿では,人間と無人車両が協調する仮説混合環境に使用される信頼モデルを提案する。
我々は,信頼モデルに感情を組み込むことを,現在の心理学理論に対する実践的アプローチの一貫性のある方法で解決する。
最も革新的な貢献は、プライバシの問題が感情的信頼モデルの協力決定にどのように関与するかである。
感情と信頼はどちらも、IEEE FIPA標準を使用して通信するGAML(GAMAエージェントプラットフォームのプログラミング言語)で実装された自律エージェントに、BDIパラダイムを用いて認知的にモデル化され、管理されている。
これらの感情的エージェントの信頼行動は、協調的ロジスティクス問題においてテストされる: エージェントはオブジェクトを目的地に移動し、オブジェクトや場所の一部にプライバシー上の問題がある。
このロジスティックな問題のシミュレーションの実行は、感情と信頼が、時間の節約とプライバシー保護の両方の観点からエージェントのパフォーマンスを改善するのにどのように寄与するかを示しています。
関連論文リスト
- Can Large Language Model Agents Simulate Human Trust Behaviors? [75.69583811834073]
大規模言語モデル(LLM)エージェントは、社会科学などの応用において人間をモデル化するためのシミュレーションツールとして、ますます採用されている。
本稿では,人間同士のインタラクションや信頼の最も重要な行動の一つに焦点をあて,LLMエージェントが人間の信頼行動をシミュレートできるかどうかを検討する。
論文 参考訳(メタデータ) (2024-02-07T03:37:19Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models
via Contextual Integrity Theory [86.8514623654506]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - AgentCF: Collaborative Learning with Autonomous Language Agents for
Recommender Systems [112.76941157194544]
本稿では,エージェントベースの協調フィルタリングにより,レコメンデータシステムにおけるユーザとイテムのインタラクションをシミュレートするエージェントCFを提案する。
我々は、ユーザだけでなく、アイテムをエージェントとして、創造的に考慮し、両方のエージェントを同時に最適化する協調学習アプローチを開発します。
全体として、最適化されたエージェントは、ユーザ・イテム、ユーザ・ユーザ・ユーザ、アイテム・イテム、集合的インタラクションなど、フレームワーク内での多様なインタラクションの振る舞いを示す。
論文 参考訳(メタデータ) (2023-10-13T16:37:14Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - Investigating Agency of LLMs in Human-AI Collaboration Tasks [24.562034082480608]
我々は社会認知理論に基づいて、エージェントが対話で表現される特徴の枠組みを構築する。
我々は、83人の人間と人間の協力的なインテリアデザインの会話のデータセットを収集する。
論文 参考訳(メタデータ) (2023-05-22T08:17:14Z) - AGENT: A Benchmark for Core Psychological Reasoning [60.35621718321559]
直観心理学は、観察可能な行動を駆動する隠された精神変数を推論する能力です。
他のエージェントを推論する機械エージェントに対する近年の関心にもかかわらず、そのようなエージェントが人間の推論を駆動するコア心理学の原則を学ぶか保持するかは明らかではない。
本稿では,プロシージャが生成する3dアニメーション,エージェントを4つのシナリオで構成したベンチマークを提案する。
論文 参考訳(メタデータ) (2021-02-24T14:58:23Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - Agent-Based Simulation of Collective Cooperation: From Experiment to
Model [0.0]
我々は,人が密集した静的な群集を通り抜けたときに何が起こるのかを観察する実験を行う。
我々は,協力を必要とする状況に対するエージェントの認識と認知処理を取り入れたモデルを構築した。
エージェントが密集した群衆をうまく通過する能力は、心理的モデルの効果として現れる。
論文 参考訳(メタデータ) (2020-05-26T13:29:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。