論文の概要、ライセンス

# (参考訳) ロボットをプロアクティブにする2つの方法:人間の意図を推論するか、未来を推論するか [全文訳有]

Two ways to make your robot proactive: reasoning about human intentions, or reasoning about possible futures ( http://arxiv.org/abs/2205.05492v1 )

ライセンス: CC BY 4.0
Sera Buyukgoz, Jasmin Grosinger, Mohamed Chetouani and Alessandro Saffiotti(参考訳) 人間と空間を共有するロボットは、役に立つために積極的に行動する必要がある。 プロアクティブなロボットは、人間の利益を期待して、自身のイニシアチブで行動することができる。 本研究では,ロボットをアクティブにするための2つの方法を検討する。 1つの方法は人間の意図を認識し、あなたが交差しようとしているドアを開くなど、それらを満たすために行動することである。 もう1つの方法は、将来起こりうる脅威や機会を推論し、雨が予測されてから傘を取るように勧めるなど、予防や育児を行うことである。 本稿では,これら2種類の行動を実現するためのアプローチを提案する。 そこで我々は,意図と予測という2つの要因を推論することで,能動的ロボット行動を生成するシステムを提案する。 我々は,本システムについて,家庭内ロボットと人間を含む実例で紹介する。 まず、このユースケースを2つの別々のプロアクティブシステム、すなわちインテントベースと予測ベースで実行し、統合システムで実行します。 その結果, 統合システムでは, 能動性に必要とされる様々な側面を考慮に入れることができることがわかった。

Robots sharing their space with humans need to be proactive in order to be helpful. Proactive robots are able to act on their own initiative in an anticipatory way to benefit humans. In this work, we investigate two ways to make robots proactive. One way is to recognize humans' intentions and to act to fulfill them, like opening the door that you are about to cross. The other way is to reason about possible future threats or opportunities and to act to prevent or to foster them, like recommending you to take an umbrella since rain has been forecasted. In this paper, we present approaches to realize these two types of proactive behavior. We then present an integrated system that can generate proactive robot behavior by reasoning on both factors: intentions and predictions. We illustrate our system on a sample use case including a domestic robot and a human. We first run this use case with the two separate proactive systems, intention-based and prediction-based, and then run it with our integrated system. The results show that the integrated system is able to take into account a broader variety of aspects that are needed for proactivity.
公開日: Wed, 11 May 2022 13:33:14 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
2 2 0 2 y a M 1 1 2 2 0 2 y a m 1 1 である。 0.54
] I A . s c [ 【私】 A! sc [ 0.50
1 v 2 9 4 5 0 1 v 2 9 4 5 0 0.42
. 5 0 2 2 : v i X r a . 5 0 2 2 : v i X r a 0.42
Two ways to make your robot proactive: reasoning about human intentions, or reasoning about possible futures Sera Buyukgoz 1,2,†, Jasmin Grosinger 3,†, Mohamed Chetouani 2,∗, and Alessandro Saffiotti 3 1SoftBank Robotics Europe, Paris, France 2Sorbonne University, Institute for Intelligent Systems and Robotics, CNRS UMR 7222, Paris, France 3AASS Cognitive Robotic Systems Lab School of Science and Technology, Orebro University, Orebro, Sweden †These authors have contributed equally to this work and share first authorship Correspondence*: Mohamed Chetouani, Sorbonne University, 4 Place Jussieu 75252 Paris Cedex 05, France mohamed.chetouani@so rbonne-universite.fr Two ways to make your robot proactive: reasoning about human intentions, or reasoning about possible futures Sera Buyukgoz 1,2,†, Jasmin Grosinger 3,†, Mohamed Chetouani 2,∗, and Alessandro Saffiotti 3 1SoftBank Robotics Europe, Paris, France 2Sorbonne University, Institute for Intelligent Systems and Robotics, CNRS UMR 7222, Paris, France 3AASS Cognitive Robotic Systems Lab School of Science and Technology, Orebro University, Orebro, Sweden †These authors have contributed equally to this work and share first authorship Correspondence*: Mohamed Chetouani, Sorbonne University, 4 Place Jussieu 75252 Paris Cedex 05, France mohamed.chetouani@so rbonne-universite.fr
訳抜け防止モード: ロボットを積極的にする2つの方法 : 人間の意図を推論する Sera Buyukgoz 1,2, , Jasmin Grosinger 3, , Mohamed Chetouani 2,∗, and Alessandro Saffiotti 3 1SoftBank Robotics Europe フランス・パリの2Sorbonne University, Institute for Intelligent Systems and Robotics CNRS UMR 7222, Paris, France 3AASS Cognitive Robotic Systems Lab School of Science and Technology Orebro University, Orebro, Sweden 著述家らは、この作品に等しく貢献している。 ソルボンヌ大学 モハメド・チェトウアーニ 共著『Correspondence * : Mohamed Chetouani』 4 Place Jussieu 75252 Paris Cedex 05 , France mohamed.chetouani@so rbonne-Universite.fr
0.85
ABSTRACT Robots sharing their space with humans need to be proactive in order to be helpful. ABSTRACT 人間と空間を共有するロボットは、役に立つために積極的に行動する必要がある。 0.56
Proactive robots are able to act on their own initiative in an anticipatory way to benefit humans. プロアクティブなロボットは、人間の利益を期待して、自身のイニシアチブで行動することができる。 0.69
In this work, we investigate two ways to make robots proactive. 本研究では,ロボットをアクティブにするための2つの方法を検討する。 0.64
One way is to recognize human’s intentions and to act to fulfill them, like opening the door that you are about to cross. 1つの方法は、人間の意図を認識し、あなたが交差しようとしているドアを開くなど、それらを満たすために行動することだ。 0.64
The other way is to reason about possible future threats or opportunities and to act to prevent or to foster them, like recommending you to take an umbrella since rain has been forcasted. もう1つの方法は、将来起こりうる脅威や機会を推論し、雨が降ってから傘を取るように勧めるなど、予防や育児を行うことである。 0.68
In this paper, we present approaches to realize these two types of proactive behavior. 本稿では,これら2種類の行動を実現するためのアプローチを提案する。 0.67
We then present an integrated system that can generate proactive robot behavior by reasoning on both factors: intentions and predictions. そこで我々は,意図と予測という2つの要因を推論することで,能動的ロボット行動を生成するシステムを提案する。 0.66
We illustrate our system on a sample use case including a domestic robot and a human. 我々は,本システムについて,家庭内ロボットと人間を含む実例で紹介する。 0.68
We first run this use case with the two separate proactive systems, intention-based and prediction-based, and then run it with our integrated system. まず、このユースケースを2つの別々のプロアクティブシステム、すなわちインテントベースと予測ベースで実行し、統合システムで実行します。 0.70
The results show that the integrated system is able to take into account a broader variety of aspects that are needed for proactivity. その結果, 統合システムでは, 能動性に必要とされる様々な側面を考慮に入れることができることがわかった。 0.71
Keywords: Proactive agents, Human intentions, Autonomous robots, Social robot, Human-centered AI, Human-Robot interaction キーワード:積極的なエージェント、人間の意図、自律ロボット、社会ロボット、人間中心AI、人間とロボットの相互作用 0.73
1 INTRODUCTION Humans can act on their own initiative. 1 導入人間は自身のイニシアチブで行動することができる。 0.64
Imagine the following scenario: you see your flatmate preparing to leave for a hiking trip in a rainy zone. 以下のシナリオを想像してみてください。雨の帯でハイキング旅行に出かける準備をしているフラットメイトが見えます。 0.61
It is quite likely that you will give your flatmate some advice like checking the weather forecast or taking some extra equipment. 天気予報のチェックや余分な設備の取り方など、平らな友達に何かアドバイスをする可能性は高い。 0.64
Such behavior even occurs between strangers. そのような行動は見知らぬ人の間でさえ起こる。 0.47
When people see a person holding garbage and looking around, they tend to show where the garbage bin is since they recognized the person’s intention to dispose of their garbage. ゴミを抱えて周りを見回している人を見ると、ゴミを処分する人の意図を認識しているため、ゴミ箱がどこにあるかを示す傾向があります。 0.68
This type of intuitive interaction is common between humans, and it is already observed in infants (Warneken and Tomasello, 2006). この種の直感的な相互作用はヒトの間で一般的であり、すでに幼児(Warneken と Tomasello, 2006)で観察されている。 0.78
The question is, what happens if one of the actors is a robot? 問題は、俳優の一人がロボットならどうなるかということだ。 0.74
The robot should be able to recognize and reason about the human’s intentions; to reason about the current and forecasted states of ロボットは、人間の意図を認識・推論し、現在の状態や予測された状態について判断することができるべきである。 0.70
1 1 0.43
英語(論文から抽出)日本語訳スコア
Buyukgoz et al Buyukgoz et al 0.43
the environment; to understand what states may be preferrable to others; and to forsee problems that the human could face. 環境、何状態が他人に好まれるかを理解し、人間が直面する可能性のある問題を予見する。 0.70
The robot should also be able to reason about the potential effects of its own actions, and select and perform actions that support the human given this context. ロボットはまた、自身の行動の潜在的な影響を推論し、この状況から人間をサポートする行動を選択し、実行することができるべきである。 0.67
The behavior of initiating own action taking into account all these aspects is called proactive behavior. これらすべての側面を考慮した行動開始の行動は、積極的な行動と呼ばれる。
訳抜け防止モード: これら全ての側面を考慮した行動開始の行動 積極的に行動することです
0.79
Most of the existing work in human-robot interaction rely on the human taking the initiative: the human sets a request, and the robot generates and executes a plan to satisfy it. 人間とロボットの相互作用における既存の作業のほとんどは、人間が主導権を握る:人間は要求を設定し、ロボットはそれを満たす計画を作成し実行します。 0.79
However, in the above examples of human-to-human interaction there is no explicit request. しかし、上記の人間と人間の相互作用の例では明確な要求はない。 0.68
The interaction works because humans are able to assess other humans’ intentions, anticipate consequences, and reason about preferred states. この相互作用は、人間が他の人間の意図を評価し、結果を予測し、望ましい状態について推論できるので有効です。 0.67
In this paper, we are interested in proactive human-robot interaction, that is, interactions where the robot behaves by acting on its own initiative, in an anticipatory way, and without being given an explicit goal (Grant and Ashford, 2008; Peng et al , 2019; Grosinger et al , 2019). 本稿では,人間とロボットの積極的なインタラクション,すなわち,ロボットが自発的に行動することによって行動し,目標を明示せずに行動するインタラクションに関心を持っている(grant and ashford, 2008; peng et al , 2019; grosinger et al , 2019)。 0.77
We consider two types of proactive robot behavior: one in which the robot understands the human’s intentions and helps the human to achieve them; and one in which the robot foresees possible future situations that are undesirable (or desirable) according to the human’s preferences, and acts to avoid (or foster) them. 我々は、ロボットが人間の意図を理解し、それを達成するのを助けるものと、ロボットが人間の好みに応じて望ましくない(または望ましい)将来の状況を予測し、それを回避(または促進)する行動の2つのタイプのプロアクティブロボット行動を考える。 0.75
Specifically, we propose a framework that identifies opportunities for acting and selects some of them for execution. 具体的には,行動の機会を特定し,実行時に選択するフレームワークを提案する。 0.78
Opportunities here are formal concepts grounded in the relation between acting, preferences and state predictions. ここでの機会は、行動、選好、状態予測の関係にある正式な概念である。 0.63
Our framework includes two main mechanisms that contribute to initiating proactive behavior; human intention recognition and reasoning and equilibrium maintenance. 本フレームワークは,行動開始に寄与する2つの主要なメカニズム,人間の意図認識と推論,平衡維持を含む。 0.74
The former mechanism is based on recognizing human intent from a known list of possible intents that the human can have. 前者のメカニズムは、人間が持つ可能性のある意図の既知のリストから人間の意図を認識することに基づいている。 0.69
The latter one is based on predicting how the state may evolve in time and comparing preferences of states resulting from different actions (or inaction) (Grosinger et al , 2019). 後者は、状態が時間的にどのように進化するかを予測し、異なる行動(または不作用)から生じる状態の選好を比較することに基づいている(Grosinger et al , 2019)。 0.68
These two mechanisms correspond to the two types of proactive behavior mentioned above: intention-based, and prediction-based. これら2つのメカニズムは、上述の2種類の積極的な行動、意図に基づくものと予測に基づくものに対応している。 0.58
The whole framework includes provisions to combine these mechanisms into an integrated proactive system. フレームワーク全体は、これらのメカニズムを統合された積極的なシステムに統合する条項を含んでいる。 0.58
The main contributions of this paper are: 本論文の主な貢献は次のとおりである。 0.69
(i) we propose a novel method based on human intention recognition to generate intention-based proactive robot behavior, that we call human intention recognition and reasoning (HIRR); i)人間の意図認識と推論(HIRR)と呼ばれる意図に基づくプロアクティブなロボット行動を生成するための,人間の意図認識に基づく新しい手法を提案する。 0.79
(ii) we adapt an existing method based on temporal predictions and state preferences, called equilibrium maintenance (EqM), to generate prediction-based proactive robot behavior; (二)平衡維持(EqM)と呼ばれる時間的予測と状態嗜好に基づく既存手法を適用し、予測に基づく能動ロボットの動作を生成する。 0.77
(iii) we define an architecture to combine both methods to create a proactive robot that considers both human intentions and temporal predictions; and (三)人間の意図と時間的予測を両立させるプロアクティブロボットを作成するための方法を組み合わせるためのアーキテクチャを定義する。 0.83
(iv) we compare all these using a sample case study. (iv)これらをすべてサンプルケーススタディで比較する。 0.71
The rest of this paper is organized as follows. 本論文の残りは以下のとおり整理される。 0.76
The next section presents the necessary background together with related work on intention recognition, proactivity, and their combination. 次の節では、意図認識、積極性、およびそれらの組み合わせに関する関連研究とともに、必要な背景を示す。 0.51
In Section 3 we define our systems for intention-based proactivity and for prediction-based proactivity, together with their integration. 第3節では、意図に基づくプロラクティビティと予測に基づくプロラクティビティのためのシステムと、それらの統合を定義します。
訳抜け防止モード: 第3節では、意図的なシステムを定義します。 -活動と予測- ベース プロアクティブ と統合
0.68
Section 4 describes the implementation and shows the results of a task involving a simulated domestic robot and a human. 第4節では、シミュレーションされた国内ロボットと人間を含むタスクの実装と結果について記述する。 0.68
Finally, in Section 5 we discuss our results and conclude. 最後に、第5節で結果を議論し、結論を出します。 0.66
2 BACKGROUND AND RELATED WORK In our work, we combine intention recognition and temporal predictions to generate proactive behavior. 2BACKGROUND and RELATED WORK 私たちの研究では、意図認識と時間予測を組み合わせて、積極的な行動を生成する。 0.67
Here we provide the relevant background and related work on these research areas. ここでは,これらの研究分野に関する背景と関連研究について述べる。 0.66
2.1 Intention Recognition In order to assist humans, a robot requires some knowledge of the human’s goals and intentions. 2.1 意図認識 人間を助けるために、ロボットは人間の目標や意図についてある程度の知識を必要とする。 0.59
In Belief-Desire-Intent ion (BDI) models, (Rao et al , 1995), the agent represents the environment in terms of beliefs that are true. Belief-Desire-Intent ion (BDI) モデル (Rao et al , 1995) では、エージェントは真である信念の観点から環境を表現する。 0.85
A set of desires, representing the agent’s goals, guides the agent’s behavior. エージェントの目標を表す一連の願望は、エージェントの行動を導く。 0.56
We may or may not know the agent’s goals. 我々はエージェントの目標を知らないかもしれないし、知らないかもしれない。 0.55
The intention represents the path that the agent is currently taking to reach 意図は、エージェントが現在到達しようとしている経路を表します 0.80
2 2 0.42
英語(論文から抽出)日本語訳スコア
Buyukgoz et al Buyukgoz et al 0.43
a goal. Bratman (1989) points out that the concept of intention is used to characterize both the human’s actions and mind (mental states). ゴール。 Bratman (1989) は、意図の概念は人間の行動と精神(精神状態)の両方を特徴づけるために使われると指摘している。 0.69
Actions are considered as done with a certain intention. 行動は特定の意図で行われると見なされる。 0.67
Humans attribute mental states of intending to other agents such as having an intention to act in certain ways now or later. 人間は精神状態が、現在またはそれ以後に行動する意図があるなど他のエージェントに意図しているとみなす。
訳抜け防止モード: 人間は精神状態に起因する 特定の方法で行動する意図を持つなどの他のエージェントに対する意図。
0.73
In this paper, we consider an intention to be a mental state that is expressed through goal-directed actions. 本稿では,目標指向行動によって表される精神状態への意図について考察する。 0.79
Intention recognition is the process of inferring an agent’s intention by analyzing their actions and their actions’ effects on the environment (Han and Pereira, 2013). 意図認識は、エージェントの行動とその行動が環境に与える影響を分析することによって、エージェントの意図を推測するプロセスである(Han and Pereira, 2013)。 0.74
Approaches in action recognition, goal recognition and plan recognition have been used to infer intention. 行動認識、目標認識、計画認識のアプローチは意図を推測するために用いられてきた。 0.63
According to Van-Horenbeke and Peer (2021), intention recognition systems can be classified as logic-based, classical machine learning, deep learning and brain-inspired approaches, or they can be classified in terms of the behavior of the observed human towards the observer. Van-Horenbeke and Peer (2021)によると、意図認識システムは論理ベース、古典的機械学習、ディープラーニング、脳に触発されたアプローチに分類される。
訳抜け防止モード: van - horenbeke and peer (2021) によると、意図認識システムは論理ベースで分類できる。 古典的機械学習、ディープラーニング、脳 - インスパイアされたアプローチ、 あるいは観察者に対する観察者の行動の観点で分類することもできる。
0.79
We take here a simplified view, and consider two classes of intention recognition approaches: logic-based and probabilistic. ここでは、単純化された視点と、意図認識アプローチの2つのクラスについて考察する。 0.55
Logic-based approaches are defined by a set of domain-independent rules that capture the relevant knowledge to infer the human’s intention through deduction (Sukthankar et al , 2014). 論理に基づくアプローチは、ドメインに依存しない一連の規則によって定義され、関連する知識を捉え、推論によって人間の意図を推測する(Sukthankar et al , 2014)。 0.69
The knowledge can be represented in different ways, including using plan representation languages like STRIPS and PDDL that describe the state of the environment and the effects of the possible actions. その知識は、STRIPSやPDDLのような計画表現言語を使って、環境の状態と可能なアクションの効果を記述するなど、さまざまな方法で表現できる。 0.75
Logic-based approaches work well in highly structured environments. 論理ベースのアプローチは高度に構造化された環境でうまく機能する。 0.51
Logic representation can define different kinds of relationships depending on the problem. 論理表現は問題に応じて異なる種類の関係を定義することができる。 0.69
These relationships allow to recognize humans’ intentions based on observations. これらの関係は、観察に基づいて人間の意図を認識することができる。 0.59
Another advantage of logic-based approaches is that they are highly expressive. 論理ベースのアプローチのもう1つの利点は、表現力が高いことである。 0.53
The reasoning result can potentially be traceable and human-understandable . 推論の結果は、追跡可能であり、人間が理解できる可能性がある。 0.46
However, many logic-based approaches assume that the human is rational and try to find the optimal intention that best fits the observations, while humans often act in non-rational ways (Dreyfus, 2007). しかしながら、多くの論理に基づくアプローチでは、人間は合理的であり、観察に最も適した最適な意図を見つけようとするが、人間はしばしば非合理的に行動する(Dreyfus, 2007)。 0.74
This makes logic-based approaches less reliable in real-world problems. これにより、実際の問題に対する論理ベースのアプローチの信頼性が低下する。 0.47
The uncertainty in humans’ rationality might be addressed by a combination of logic-based with probabilistic reasoning techniques. 人間の合理性の不確実性は、論理と確率論的推論技術の組み合わせによって解決されるかもしれない。 0.60
Probabilistic approaches exploit Bayesian networks and Markov models. 確率的アプローチはベイズネットワークとマルコフモデルを利用する。 0.64
Bayesian networks are generative probabilistic graphical models that represent random variables as nodes and conditional dependencies as arrows between them (Van-Horenbeke and Peer, 2021). ベイズネットワークは確率変数をノードとして表現し、条件付き依存関係を矢印として表現する生成確率的グラフィカルモデルである(van-horenbeke and peer, 2021)。 0.66
They can provide the probability distribution of any set of random variables given another set of observed variables. 観測変数の別の集合が与えられた任意の確率変数の確率分布を提供することができる。 0.81
Some planning systems use Bayesian inference to reason about intention. 一部の計画システムは、意図を推論するためにベイズ推論を使用する。 0.56
Such approaches are referred to as Bayesian inverse planning. このようなアプローチはベイズ逆計画と呼ばれる。 0.72
Ram´ırez and Geffner (2009) propose an approximate planning method that generates a set of possible goals by using Bayesian inverse planning methods on classical planning. Ram ́rez and Geffner (2009) はベイズ的逆計画法を古典計画に用いて、可能な目標の集合を生成する近似計画法を提案する。 0.74
The method assumes that humans are perfectly rational, which means they only optimally pursue their goals. この方法は、人間が完全に合理的であると仮定している。
訳抜け防止モード: この方法は 人間は完全に合理的であり、目的を最適に追求するだけである。
0.69
As a result of this, the indecisive behavior of humans is not tolerated. この結果、人間の非決定的な行動は許容されない。 0.69
This limitation is partly addressed in Ram´ırez and Geffner (2010), that introduces a more general formulation. この制限は、より一般的な定式化を導入するram ́ırez と geffner (2010) で部分的に取り扱われている。 0.55
Persiani (2020) offers an example of using Bayesian inference in a logic based approach. persiani (2020) は論理ベースのアプローチでベイズ推論を使用する例を提供している。 0.75
The authors use classical planning to generate an action plan for each goal, then they use a Bayesian prior function to infer human intention. 著者らは古典的な計画を用いて目標ごとにアクションプランを生成し、それからベイズ事前関数を使って人間の意図を推測する。 0.74
Probabilistic approaches are able to handle uncertainty, and can therefore handle real-world settings such as non-rational agents, interrupted plans and partial observability (Van-Horenbeke and Peer, 2021). 確率的アプローチは不確実性を扱うことができ、従って非有理エージェント、中断された計画、部分的可観測性(van-horenbeke and peer, 2021)のような現実世界の設定を扱うことができる。 0.61
On the other hand, they are less expressive than logic-based systems, since it is hard to understand the reasoning behind the result. 一方で、結果の背後にある理由を理解することが難しいため、それらは論理ベースのシステムよりも表現力が低い。 0.78
Scalability is another, well-known difficulty with probabilistic approaches. スケーラビリティは、確率的アプローチでよく知られた難易度である。 0.51
In this work, we adopt a logic-based approach as done in Persiani (2020): we represent the robot’s knowledge in a symbolic form, which the robot uses to plan its actions. 本研究では,ペルシャ語(2020年)の論理に基づくアプローチを採用し,ロボットが行動計画に使用する象徴的な形態でロボットの知識を表現した。 0.77
We assume rational humans. 合理的な人間を仮定します 0.52
The approach gives us the advantage of getting results that are easily traceable and human-readable. このアプローチは、簡単にトレース可能で、人間が読める結果を得るという利点を提供します。
訳抜け防止モード: このアプローチは 簡単にトレース可能で、人間的(readable)な結果を得る。
0.63
2.2 Proactivity 2.2 プロラクティビティ 0.57
Proactive AI systems and robots are opposed to reactive AI systems, which respond to explicit requests or external events. アクティブなAIシステムとロボットは、明示的な要求や外部イベントに応答するリアクティブなAIシステムに反対している。 0.73
In organizational psychology proactive behavior is understood as anticipatory, self-initiated 組織心理学における積極的行動は予測的、自己開始的であると理解される 0.52
Frontiers 3 辺境 3 0.43
英語(論文から抽出)日本語訳スコア
Buyukgoz et al Buyukgoz et al 0.43
action (Grant and Ashford, 2008). アクション(Grant and Ashford, 2008)。 0.76
When it comes to artificial agents, though, we lack a clear definition of proactivity. しかし、人工エージェントに関しては、活性の明確な定義が欠けている。 0.68
Drawing inspiration from the human proactive process, we can identify the functionalities that are needed for artificial proactivity: context-awareness, activity recognition, goal reasoning, planning, and plan execution and execution monitoring. ヒトのプロアクティブなプロセスからインスピレーションを得て、コンテキスト認識、アクティビティ認識、ゴール推論、計画、計画実行および実行監視といった、人工的プロアクティブに必要な機能を特定することができる。 0.68
Each one of these functionalities in itself has been the subject of active research (Doush et al , 2020; Wang et al , 2019; Aha, 2018; Ghallab et al , 2016; Beetz et al , 2016). これらの機能はそれぞれアクティブな研究の対象となっている(doush et al , 2020; wang et al , 2019; aha, 2018; ghallab et al , 2016; beetz et al , 2016)。 0.79
Proactivity needs to contemplate these areas jointly and in a separate process to each. 活動性はこれらの領域をそれぞれ別のプロセスで共同で考える必要があります。 0.64
Context-awareness is not the central topic in proactivity, but it is used to understand what the current situation is, and with this knowledge it is possible to decide how to act. 文脈認識(Context-Awareness)は、活動において中心的な話題ではないが、現在の状況を理解するために使われ、この知識で行動の仕方を決定することができる。 0.64
Goal Reasoning (GR) deals with questions about generating, selecting, maintaining and dispatching goals for execution (Aha, 2018). Goal Reasoning(GR)は、実行目標の生成、選択、保守、発行に関する質問を扱う(Aha, 2018)。 0.71
Planning can be described as searching and selecting an optimal action trajectory to a goal that is given externally by the human or by some trigger. 計画は、人間または何らかのトリガーによって外部に与えられる目標に対する最適な行動軌跡を探索して選択することができる。 0.79
Proactivity resides on the abstraction level above. プロアクティベーションは上記の抽象レベルに存在する。 0.76
It is finding the acting decisions or goals that should be planned for, hence, it produces the input to a planner. 計画すべき意思決定や目標を見つけることで、プランナーへのインプットを生み出すのです。
訳抜け防止モード: 計画すべき行動的な決定や目標を見つけることです。 したがって、プランナーへの入力を生成する。
0.62
Finally, plan execution and monitoring are employed by Proactivity to enact the acting decision inferred and to invoke new reasoning on proactivity when execution fails. 最後に、計画実行とモニタリングは、予測された行動決定を実行し、実行が失敗した場合、新しい行動推論を呼び出すために、プロアクティビティによって採用される。
訳抜け防止モード: 最後に、計画実行と監視はProactiveによって行われる 推論された行動決定を実行し、実行が失敗すると、アクティブな新しい推論を実行する。
0.70
Recently there has been a number of promising works in the field of artificial proactivity. 近年,人工的プロアクティビティの分野で有望な研究が数多く行われている。 0.75
Baraglia et al (2017) address the question whether and when a robot should take initiative during joint human-robot task execution. Baraglia et al (2017)は、ロボットが共同作業中にいつ、いつ、主導権を握るかという問題に対処する。
訳抜け防止モード: baraglia et al (2017) が疑問に答える ロボットは人間とロボットのタスク実行中にイニシアティブを取るべきである。
0.78
The domain used is table-top manipulation tasks. 使用するドメインはテーブルトップ操作タスクである。 0.71
Baraglia et al (2017) employ dynamic Bayesian networks to predict environmental states and the robot’s actions to reach them. baraglia et al (2017)は、動的ベイズネットワークを用いて環境状態とロボットの行動を予測する。 0.66
Initiation of action is based on a hard trigger: that at least one executable action exists that does not conflict with human actions. アクションの開始は、人間のアクションと矛盾しない少なくとも1つの実行可能なアクションが存在するという、ハードトリガーに基づいている。
訳抜け防止モード: アクションの開始はハードトリガーに基づく : その1 少なくとも1つの実行可能な行動が存在し、人間の行動と矛盾しない。
0.74
In contrast, in the work presented in this paper we aim to find a general solution where acting is based on reasoning on first principles, rather than on hard-coded triggers or rules. これとは対照的に,本論文では,ハードコードトリガやルールではなく,最初の原則の推論に基づく行動の一般的なソリューションを見出そうとしている。 0.76
Bremner et al (2019) present a control architecture based on the BDI-model incorporating an extra ethical layer in order to achieve agents that are proactive, transparent, ethical and verifiable. Bremner et al (2019)は、積極的に透明で倫理的かつ検証可能なエージェントを達成するために、余分な倫理的レイヤを組み込んだBDIモデルに基づく制御アーキテクチャを提案する。 0.67
They do anticipation through embedded simulation of the robot and other agents. 彼らはロボットや他のエージェントの組込みシミュレーションを通じて予測を行う。 0.77
Thereby, the robot can test what-if-hypotheses, e g , what if I carry out action x? これにより、ロボットはwhat-if-hypotheses(例えば、アクションxを実行した場合)をテストできる。 0.67
The robot controller is given a set of goals, task, and actions and thereof generates behavior alternatives, i.e., plans. ロボットコントローラには、目標、タスク、アクションのセットが与えられ、行動代替手段、すなわち計画を生成する。 0.68
The simulation module simulates them and predicts their outcome. シミュレーションモジュールはそれらをシミュレートし、結果を予測する。 0.76
The ethical layer evaluates the plans and if needed invokes the planner module to find new plans proactively. 倫理層は計画を評価し、必要に応じてプランナーモジュールを呼び出して積極的に新しい計画を見つける。 0.70
Note that proactive plans are only generated if previously generated plans from given goals fail against some given ethical rules, which admittedly limits generality. プロアクティブな計画が生成されるのは、与えられた目標から以前に生成された計画が与えられた倫理的規則に反した場合に限られる。 0.60
The approach that we propose below is more general since it generates proactive actions from first principles. 以下に示すアプローチは、第一原理から積極的行動を生成するため、より一般的なものである。 0.60
On the other hand, our approach does not takes ethics into account. 一方、我々のアプローチは倫理を考慮に入れていない。 0.60
Umbrico et al (2020a,b) present a general-purpose cognitive architecture with the aim to realize a Socially Assistive Robot (SAR), specifically, for supporting elderly people in their home. umbrico et al (2020a,b) は,高齢者の在宅支援を目的とした,社会支援型ロボット (sar) の実現を目的として,汎用的な認知アーキテクチャを提案する。 0.72
Their highly integrated framework includes a robot, a heterogeneous environment and physiological sensors, and can do state assessment using these sensors and an extensive ontology. 彼らの高度に統合されたフレームワークには、ロボット、異種環境、生理センサーが含まれており、これらのセンサーと広範なオントロジーを使って状態評価を行うことができる。
訳抜け防止モード: 彼らの高度に統合されたフレームワークには、ロボット、異種環境、生理学的センサーが含まれる。 これらのセンサーと広範なオントロジーを使って 状態を評価できます
0.61
However, their approach to making the SAR proactive is based on hard-wired rules like “user need: high blood pressure → robot action: blood pressure monitoring in context sleeping”. しかし、SARを積極的にするための彼らのアプローチは、“ユーザニーズ:高血圧→ロボットアクション:コンテキスト睡眠時の血圧モニタリング”といったハードワイヤのルールに基づいている。 0.70
Peng et al (2019) are mainly interested in finding the right level of proactivity. Peng et al (2019) は主に適切な活性レベルの発見に関心がある。 0.75
They use hand-coded policies for guiding the behavior of a robotic shopping assistant, and find that users prefer medium proactivity over high or low proactivity. 彼らは、ロボットショッピングアシスタントの行動を導くために、手書きのポリシーを使用しており、ユーザーは、高いまたは低いプロアクティビティよりも中程度のプロアクティビティを好む。
訳抜け防止モード: 彼らはロボットショッピングアシスタントの行動を導くための手書きのポリシーを使っている。 利用者は、高いまたは低い活動よりも中程度の活動を好む。
0.57
2.2.1 Equilibrium Maintenance 2.2.1 平衡保守 0.54
In this work we use Equilibrium Maintenance, EqM, a mechanism proposed by Grosinger et al (2019) for achieving proactivity. 本研究では、Grosinger et al (2019) によって提案されたメカニズムである EqM を用いて、能動性を達成する。 0.59
EqM autonomously infers acting decisions based on temporal prediction of one or several steps. eqmは1つまたは複数のステップの時間的予測に基づいて行動決定を自律的に推測する。 0.59
EqM is a general approach based on a formal model, and thus affords domain independence. eqmは形式モデルに基づく一般的なアプローチであり、従ってドメイン独立性を持つ。 0.80
This model is modular and can cope with different agent capabilities, different preferences or different predictive models. このモデルはモジュラーであり、異なるエージェント機能、異なる好み、異なる予測モデルに対応できる。 0.68
The relation between situations and triggered actions is not hard-coded: decisions are 状況と引き起こされた行動の関係はハードコードではない:決定は 0.74
4 4 0.42
英語(論文から抽出)日本語訳スコア
Buyukgoz et al Buyukgoz et al 0.43
inferred at run-time by coupling action with state, predicted states and preferences and choosing among acting alternatives at run-time. 実行時にアクションと状態、予測状態と好みを結合し、実行時に代替手段を選択することで推測される。 0.65
In Section 3.2 we give a deeper description of EqM. 第3.2節では、EqMについてより深く記述する。 0.56
A work that has comparable ideas to the ones in equilibrium maintenance is the one on αPOMDPs by Martins et al (2019). 平衡維持におけるものと同等の考えを持つ研究は、Martins et al (2019) による αPOMDPs におけるものである。 0.72
With the aim to develop a technique for user-adaptive decision making in social robots, they extend the classical POMDP formulation so that it simultaneously maintains the user in valuable states and encourages the robot to explore new states for learning the impact of its actions on the user. ソーシャルロボットにおけるユーザ適応意思決定手法の開発を目的として,従来のPMDPの定式化を拡張して,ユーザを価値ある状態に同時に維持し,ユーザに対する行動の影響を学習するための新たな状態の探索を促す。 0.84
As in all flavors of (PO)MDPs, however, the overall objective is to find an optimal, reward-maximizing policy for action selection; by contrast, the aim of EqM is to maintain an overall desirable world state, be it by acting or by inaction. しかしながら、(PO)MDPの全てのフレーバーと同様に、全体的な目的は、行動選択のための最適で報酬を最大化するポリシーを見つけることであり、対照的に、EqMの目的は、行動または不作用によって、全体的な望ましい世界状態を維持することである。
訳抜け防止モード: しかし、(PO)MDPの全てのフレーバーと同様に、全体的な目的は、 行動選択のポリシーを最大化する最適な報酬を見つける 対照的にEqMの目的は 全体的に望ましい世界を維持するために 行動または不作用によって
0.80
Instead of rewarding actions, as done in MDPs, EqM evaluates the achieved effects of the actions (or of being in-active). MDPで行われているように、EqMはアクションに報酬を与える代わりに、アクションの達成された効果(あるいは非アクティブであること)を評価する。 0.59
2.3 From Intention Recognition to Proactivity 2.3 意図認識から活動へ 0.78
Several authors have proposed reactive systems based on intention recognition. いくつかの著者が意図認識に基づくリアクティブシステムを提案している。 0.56
Zhang et al (2015) provide a framework for general proactive support in human-robot teaming based on task decomposition, where priorities of sub-tasks depend on the current situation. Zhang et al (2015) はタスク分解に基づくヒューマンロボットチームにおける一般的なプロアクティブサポートのためのフレームワークを提供しており、サブタスクの優先順位は現在の状況に依存する。 0.67
The robot re-prioritizes its own goals to support humans according to recognized intentions. このロボットは、認識された意図に応じて、人間をサポートするための自身の目標を再優先する。 0.51
Intentions are recognized by Bayesian inference following Ram´ırez and Geffner (2010). 意図はram ́ırez と geffner (2010) に従ってベイズ推論によって認識される。 0.53
Each goal’s probability depends on the agent’s past and/or current belief, and the goal with the highest probability from a candidate goal set is recognized as the current intention. それぞれのゴールの確率はエージェントの過去または/または現在の信念に依存し、候補のゴールセットから最も高い確率のゴールが現在の意図として認識される。 0.79
Our framework is similar to Zhang et al (2015) in linking intention recognition with the proactive behavior of the robot. 我々のフレームワークはzhang et al (2015) と似ており、意図認識とロボットの積極的な動作を結びつけている。 0.69
In our case, however, the robot does not have its own independent tasks to achieve: the robot’s only objective is to help the human proactively by enacting actions to reach their goal. ロボットの唯一の目的は、目標を達成するために行動を実行することによって、人間が積極的に助けることである。
訳抜け防止モード: しかし、我々の場合、ロボットは独自のタスクを持っていない。 ロボットの唯一の目的は、目標を達成するための行動を実行することによって、人間を積極的に支援することである。
0.72
Sirithunge et al (2019) provide a review of proactivity focused on perception: robots perceive the situation and user intention by human body language before approaching the human. Sirithunge et al (2019)は、人間に近づく前に、ロボットは人間の身体言語による状況とユーザ意図を知覚する。
訳抜け防止モード: sirithunge et al (2019) - 知覚に焦点を当てたプロアクティビティのレビュー ロボットは,人間に近づく前に,人間の身体言語による状況やユーザの意図を知覚する。
0.76
The review aims to identify cues and techniques to evaluate the suitability of proactive interaction. このレビューは、プロアクティブインタラクションの適合性を評価する手がかりとテクニックを特定することを目的としている。 0.48
Their idea of proactivity is that the robot identifies a requirement by the human and acts immediately. プロアクティベーションの考え方は、ロボットが人間の要求を認識し、即座に行動するというものである。 0.68
This differs from our understanding of reasoning on proactivity: we generate proactive agent behavior by considering the overall environment, the human’s intentions, the overall preferences and prediction on how the state will evolve. 私たちは、全体的な環境、人間の意図、全体的な選好、状態がどのように進化するかの予測を考慮して、プロアクティブなエージェントの振る舞いを生成します。 0.57
This can result in the agent acting now or later or not at all. これにより、エージェントが今か後か、まったく行動しない可能性がある。 0.58
Harman and Simoens (2020) aim at predicting what action a human is likely to perform next, based on previous actions observed through pervasive sensors in a smart environment. Harman and Simoens (2020) は、スマート環境における広汎なセンサーを通して観測された過去の行動に基づいて、人間が次に実行するであろう行動を予測することを目的としている。
訳抜け防止モード: harman and simoens (2020)は、人間が次に行うであろう行動を予測することを目指している。 スマート環境における広汎性センサによる前回の動作に基づく。
0.76
Predictions can enable a robot to proactively assist humans by autonomously executing an action on their behalf. 予測は、ロボットが自律的に行動を実行することによって、人間を積極的に支援することができる。 0.64
So-called Action Graphs are introduced to model order constraints between actions. いわゆるアクショングラフは、アクション間の順序制約をモデル化するために導入された。 0.55
The program flow is as follows: プログラムフローは以下の通りである。 0.79
(i) action by the human is observed; (i)ヒトによる作用が観察される。 0.73
(ii) next actions are predicted; (ii)次の行動が予測される 0.80
(iii) predicted actions are mapped to a goal state; (iii) 予測された行動は目標状態にマッピングされる。 0.74
(iv) a plan for the robot and a plan for the human are created to reach the goal state; (四 ロボットの計画及び人間のための計画が作成され、目標状態に達すること。) 0.75
(v) the robot decides which action it should perform by comparing the robot’s and the human’s plan. (v)ロボットは、ロボットと人間の計画を比較して、どのアクションを実行するべきかを決定する。 0.83
The work presented in this paper shares some traits with the one by Harman and Simoens (2020): in both cases we reason on the human’s intentions, and make predictions about future states using action models. どちらの場合においても、私たちは人間の意図を推論し、アクションモデルを使って将来の状態について予測します。
訳抜け防止モード: 本稿では,harman と simoens (2020) による特徴について述べる。 我々は人間の意図を推理する。 アクションモデルを使って将来の状態を予測します。
0.64
In our case, however, predictions are made on how the system evolves with and without robot actions, and proactive actions are taken by comparing those predictions. しかし,本研究では,ロボットの動作を伴わずにシステムがどのように進化するかを予測し,これらの予測を比較して積極的に行動する。 0.69
Importantly, in our case these actions might not be part of the human’s plan. 私たちの場合、これらの行動は人間の計画の一部ではないかもしれません。 0.61
Finally, the trigger to perform proactivity reasoning in Harman and Simoens (2020) is human action, while in our work this trigger is any state change, be it caused by human action or by the environment. 最後に、Harman and Simoens (2020)でプロアクティブ推論を行うトリガーは人間の行動であり、我々の研究では、このトリガーは人間の行動や環境によって引き起こされる何らかの状態変化である。 0.69
In Liu et al (2021), the authors’ aim is to recognize and learn human intentions online and provide robot assistance proactively in a collaborative assembly task. Liu et al (2021)では、オンラインで人間の意図を認識し学習し、協調的な組み立て作業において積極的にロボット支援を提供することが目的である。 0.71
They introduce the evolving hidden Markov model (EHMM) which is a probabilistic model to unify human intention inference and incremental human 彼らは、人間の意図推論と漸進的人間を統一する確率モデルである進化的隠れマルコフモデル(EHMM)を導入した。 0.70
Frontiers 5 辺境 5 0.43
英語(論文から抽出)日本語訳スコア
Buyukgoz et al Buyukgoz et al 0.43
intention learning in real time. リアルタイムで学習することです 0.72
Liu et al (2021) conduct experiments where a fixed robot arm assists a human according to recognized intention in assembling cubes marked by a fiducial mark on top. Liu et al (2021) は、固定されたロボットアームが、上部にフィデューカルマークでマークされた立方体を組み立てる際、認識された意図に従って人間を支援する実験を行う。
訳抜け防止モード: Liu et al (2021 ) は、固定ロボットアームが認識された意図に従って人間を支援する実験を行う。 立方体を組み立てるのに 上にフィデューシャルマークが
0.79
One such configuration corresponds to one particular intention. そのような構成は、ある特定の意図に対応する。 0.60
The human starts to assemble the cubes and the robot proactively finishes the shape as soon as the intention is recognized or when a maximally probable intention is found by doing one step prediction. 人間は立方体を組み立て始め、ロボットは意図が認識されたら、または一つのステップ予測を行うことで、最大限の確率で意図が見つかると、その形状を積極的に仕上げる。
訳抜け防止モード: 人間はキューブを組み立て始めます ロボットは意図が認識されるとすぐに 積極的に形を仕上げます あるいは、最大確率の意図が1ステップの予測によって見つかるとき。
0.76
In Liu et al (2021) proactivity results from strict one-to-one links where one recognized intention always leads to the same action sequence, using a 1-step prediction. Liu et al (2021) では、ある認識された意図が常に同じ行動列に導かれるような厳密な1対1のリンクが、1ステップの予測を用いて得られる。 0.63
In our approach, proactive robot behavior too can be based on recognizing intentions and their corresponding action sequences but it can also be inferred from first principles at run time using multiple steps prediction. 提案手法では,プロアクティブロボットの動作も意図とその行動系列の認識に基づいているが,複数のステップ予測を用いて実行時の第一原理から推測することもできる。 0.82
3 SYSTEM We claimed that to initiate proactive behavior, robots must be equipped with the abilities to recognize human intentions, to predict possible future states and reason about their desirability, and to generate and enact opportunities for acting that can lead to more desirable states. 3 積極的な行動を開始するには、ロボットは人間の意図を認識し、将来の状態を予測し、望ましくないと判断し、より望ましい状態につながる行動の機会を創造し、行動する能力を備えなければならないと主張した。 0.74
In order to combine these abilities, we propose the general system model shown in Figure 1. これらの能力を組み合わせるために、図1に示す一般的なシステムモデルを提案する。 0.83
Figure 1. System Model; an autonomous system that initiates proactive behavior according to the situation of the environment, including the human. 図1に示す。 システムモデル:人間を含む環境の状況に応じて積極的な行動を開始する自律システム。 0.63
The system includes different components to offer a fully autonomous interaction, namely: a situation assessment, a knowledge component, a planner, an intention-based proactivity component, a predictive proactivity component, an action selection component and lastly an executor. このシステムは、状況評価、知識コンポーネント、プランナー、意図に基づく活動的コンポーネント、予測的活動的コンポーネント、行動選択コンポーネント、最後に実行者など、完全に自律的なインタラクションを提供するためのさまざまなコンポーネントを含む。 0.79
The situation assessment 6 状況評価 6 0.50
英語(論文から抽出)日本語訳スコア
Buyukgoz et al Buyukgoz et al 0.43
and the executor components act as interfaces to the physical environment. エグゼクタコンポーネントは 物理的環境のインターフェースとして機能します 0.67
They respectively collect and induce changes from/to the environment. それぞれ環境の変化を収集し、誘発する。 0.70
The knowledge component represents a model of the environment. 知識コンポーネントは、環境のモデルを表します。 0.67
This model encodes the state evolution of the world, the set of goals of the human, action plans of how the human can reach their goals, robot capabilities as a set of action schemes, the state transition relation and a desirability function to compute the degree of desirability of a state. このモデルは、世界の状態進化、人間の目標の集合、人間の目標を達成するためのアクションプラン、アクションスキームの集合としてのロボット能力、状態遷移関係および状態の望ましい度を計算するための望ましい関数を符号化する。 0.65
More specifically, we model the environment and its dynamics using a standard dynamic system Σ = (cid:104)S, U, f(cid:105) where S is a set of states, U is a finite set of external inputs (robot actions or human actions) and f ⊆ S × U × S is a transition relation. 具体的には、標準的な力学系σ = (cid:104)s, u, f(cid:105) を用いて環境とそのダイナミクスをモデル化する。
訳抜け防止モード: 具体的には、標準的な力学系 Σ = ( cid:104)S を用いて環境とその力学をモデル化する。 U, f(cid: 105 ) ここで S は状態の集合である。 Uは、外部入力の有限セット(ロボットアクションまたは人間のアクション)である。 そして f × S × U × S は遷移関係である。
0.75
The system’s dynamics is modeled by the relation f (s, u, s(cid:48)), which holds iff Σ can go from s to s(cid:48) when input u is applied in s. 系の力学は f(s, u, s(cid:48)) によってモデル化され、入力 u が s に適用されると iff Σ が s から s(cid:48) に変化する。 0.69
To give S a structure, we rely on a symbolic representation of world states. S を構造とするために、我々は世界状態の象徴的表現に依存する。 0.73
Given a finite set L of predicates, we let S ⊆ P(L), and denote by sc the current state. 述語の有限集合 L が与えられたとき、S を P(L) とし、sc で現在の状態を表す。 0.71
Each state s ∈ S is thus completely determined by the predicates that are true in s. したがって、各状態 s ∈ S は s において真である述語によって完全に決定される。 0.72
We denote by GH ⊆ S the set of human goals. 我々は、GH > S によって人間の目標の集合を表す。 0.63
Each goal g ∈ GH is determined by predicates that are true in g. 各目標 g ∈ gh は g において真である述語によって決定される。 0.71
Given a goal g, we denote by sg any state in S where all predicates in g (and potentially more) are true, hence g ⊆ sg. 目標 g が与えられたとき、g のすべての述語が真であるような s の任意の状態は sg で表される。 0.67
Finally, we denote by Sg ⊆ S the set of all states sg where the predicates of g are true. 最後に、Sg > S によって g の述語が真であるすべての状態 sg の集合を表す。 0.72
The planner is an off-the-shelf planner able to create a sequence of actions that leads from the current state to a goal state. プランナーは既成のプランナーであり、現在の状態からゴール状態へと導く一連のアクションを作成できる。 0.58
In our implementation, we use Fastdownward1, a domain independent planner based on PDDL, the Planning Domain Definition Language (Ghallab et al , 1998). 実装では,計画型ドメイン定義言語であるpddl(ghallab et al , 1998)をベースとした,ドメインに依存しないプランナであるfastdownward1を用いています。
訳抜け防止モード: 私たちの実装では、pddlに基づいたドメイン独立プランナーfastdownward1を使用します。 計画型ドメイン定義言語(ghallab et al, 1998)。
0.76
Both the human’s plans and the robot’s plans are formulated in PDDL, a standard language to define planning domains and problems. 人間の計画とロボットの計画の両方は、計画領域と問題を定義する標準言語PDDLで定式化されている。 0.77
The planning domain includes the predicates of L used for describing states, and operators that model the available actions of humans and robots. 計画領域には、状態を記述するために使用されるLの述語と、人間とロボットの利用可能なアクションをモデル化するオペレータが含まれる。
訳抜け防止モード: 計画領域は、状態を記述するために使用されるLの述語を含む。 人間やロボットの動作をモデル化するオペレータです
0.79
The planning problem includes information about the available objects, the current state sc, and the goal of the human g ∈ GH. 計画問題には、利用可能なオブジェクト、現在の状態 sc、および人間のg ∈ GHのゴールに関する情報が含まれる。 0.82
Given a domain and a problem, the planner finds the shortest plan θg(s) between the current state sc and the given goal g. ドメインと問題があれば、プランナーは現在の状態 sc と与えられた目標 g の間の最も短い計画 θg(s) を見つける。 0.75
This plan represents the sequence of actions that the agent should do to reach any state sg where all predicates of g are true. この計画は、g のすべての述語が真である任意の状態 sg に到達するためにエージェントがすべき行動の列を表す。 0.74
The intention-based proactivity component and the predictive proactivity component are both able to generate proactive behavior, but they use two different methods which we describe below. 意図に基づく能動成分と予測的能動成分はどちらもプロアクティブな振る舞いを生成できるが、以下に示す2つの異なる手法を用いる。 0.69
Finally, the action selection component integrates the decisions generated by those two methods into an overall proactive behavior to be executed by the robot. 最後に、アクション選択コンポーネントは、これら2つの方法によって生成された決定を、ロボットによって実行される全体的な積極的な行動に統合する。 0.58
To describe the main contribution of this paper, i.e., the integration of intention-based and predictive proactivity, we first need to introduce the individual systems which it is based on. 本論文の主な貢献、すなわち、意図的および予測的活動性の統合を説明するためには、まず、それに基づく個々のシステムを導入する必要がある。 0.82
In Section 3.1 we present our novel approach for intention-based proactivity, HIRR; In Section 3.2 we recall our existing approach on equilibrium maintenance, EqM; and in Section 3.3 we describe an integration of HIRR and EqM. 第3.1節では、意図に基づく新規な活動的アプローチであるHIRR、第3.2節では均衡維持に関する既存のアプローチであるEqM、第3.3節ではHIRRとEqMの統合について述べる。 0.71
3.1 Intention Based Proactivity: Human Intention Recognition and Reasoning 3.1 意図に基づく活動性:人間の意図認識と推論 0.68
Experimental psychology shows that humans can interpret others’ intention by observing their actions, which is part of the so-called Theory of Mind, ToM (Premack and Woodruff, 1978). 実験心理学は、人間が自分の行動を観察して他人の意図を解釈できることを示し、それはいわゆる「心の理論」の一部である(Premack and Woodruff, 1978)。 0.75
Interpreting actions in terms of their final goal may give hints on why a human performed those actions, and hence make us able to infer that human’s intentions (Han and Pereira, 2013). 最終目標の観点で行動の解釈は、人間がその行動を行った理由のヒントとなり、それによって人間の意図を推測することができる(han and pereira, 2013)。 0.75
Inspired from these concepts, we define a framework called Human Intention Recognition and Reasoning (HIRR) for generating proactive behavior based on intention recognition. これらの概念から着想を得て,意図認識に基づく積極的行動を生成するためのHuman Intention Recognition and Reasoning(HIRR)という枠組みを定義した。 0.73
Intention recognition applies inverse planning rules to recognize the intention of the human in the form of an action plan. 意図認識は、行動計画の形式で人間の意図を認識するために逆計画規則を適用する。 0.79
The robot can then proactively enact the next action in that action plan on behalf of the human, or it can inform the human on which action to take next in order to reach their goal. ロボットは、人間に代わってアクションプランで次のアクションを積極的に実行したり、目標を達成するために次にどのアクションをとるかを人間に通知することができる。 0.78
1 https://www.fast-dow nward.org/ 1 https://www.fast-dow nward.org/ 0.21
Frontiers 7 辺境 7 0.43
英語(論文から抽出)日本語訳スコア
Buyukgoz et al Buyukgoz et al 0.43
There are different methods to recognize human intentions. 人間の意図を認識する方法は様々である。 0.72
We select inverse planning since this is a straight-through logic-based approach for fully observable systems. 完全可観測系に対する直線スルー論理に基づくアプローチであるため,逆計画を選択する。 0.68
The approach has been widely used in other systems for intention recognition (Han and Pereira, 2013; Persiani, 2020; Farrell and Ware, 2020). このアプローチは他のシステムで意図認識のために広く使われている(Han and Pereira, 2013; Persiani, 2020; Farrell and Ware, 2020)。 0.88
While planning synthesizes a sequence of actions to reach a goal, in inverse planning we observe the execution of a sequence of actions to infer the human’s goal and the corresponding plan. 計画は、目標に達するための一連のアクションを合成するが、逆計画では、人間の目標と対応する計画を予測するための一連のアクションの実行を観察する。 0.84
Once the user has committed to reaching a goal, we say the user intends to reach that goal g. ユーザが目標を達成することをコミットしたら、ユーザはその目標に達するつもりだ、と私たちは言います。 0.72
We define an intention i(s) in state s to be an action plan θg(s) to reach goal g from state s. 状態 s における意図 i(s) を、状態 s から目標 g に到達するための行動計画 θg(s) と定義する。 0.85
We infer human intentions I(s) as defined in Equation 1: 方程式 1 で定義される人間の意図 I(s) を推測する。 0.68
I(s) = {θˆg(s) | ˆg ∈ argmin g∈GH i(s) = {θ\g(s) | \g ∈ argmin g guigh である。 0.70
(len(θg(s)))} (len(θg(s)))} 0.46
(1) In words, for each goal g in the set GH of the human’s potential goals, we use our planner to compute the shortest plan θg(s) that the human can perform to reach g from the current state s. (1) 言い換えると、人間の潜在的な目標の集合 gh 内の各目標 g に対して、我々はプランナーを使って、現在の状態 s から g に到達するために人間が実行できる最も短い計画 θg(s) を計算する。 0.61
We then select the goal ˆg in GH to which the shortest of these plans leads: θˆg(s). 次に、これらの計画の最も短い方向が導かれる GH のゴール θg(s) を選択する。 0.80
The rationale behind this is that θˆg(s) has the shortest number of actions left to be executed, that is, the human already has executed a large part of this plan. この背景にある理論的根拠は、θ\g(s) は、実行すべき最短のアクション、すなわち、すでに人間がこの計画の大部分を実行していることである。 0.73
Since we assume that the human is rational, it is plausible to infer that the human intends to do all the remaining actions in θˆg(s) to reach ˆg from s. 我々は、人間は合理的であると仮定するので、人間が s から sg に到達するために θ\g(s) の残りのすべての作用を行おうとしていると推測することは可能である。 0.60
Therefore, we take the action list in θˆg(s) to be the intention i(s) of the human in state s. したがって、状態 s における人間の意図 i(s) として θ\g(s) のアクションリストを取る。 0.71
This strategy has been originally proposed in logic-based approaches in Persiani (2020). この戦略はもともとペルシャの論理に基づくアプローチで提唱された(2020年)。 0.68
Equation 1 is implemented by Algorithm 1, called HIRR, that returns the intention i(s) ∈ I(s). 方程式 1 は HIRR と呼ばれるアルゴリズム 1 によって実装され、意図 i(s) ∈ I(s) を返す。 0.85
The returned intention is the residual action plan θˆg(s) of the human’s recognized intention to be enacted proactively by the robot. 返却された意図は、ロボットが積極的に実行しようとする人間の認識された意図の残留する行動計画θ-g(s)である。 0.71
If the cardinality of the set of goals with shortest residual action plans, i.e., the cardinality of the set of intentions, is not 1, the intention is not recognized or it is ambiguous and an empty set is returned. 最も短い残留行動計画を持つ目標の集合の濃度、すなわち意図の集合の濃度が 1 でない場合、意図は認識されないか、曖昧で空集合が返される。 0.55
Algorithm 1: HIRR(s, GH ) アルゴリズム1:HIRR(s, GH) 0.74
1 (cid:98)G = argming∈GH 2 if | (cid:98)G | == 1 then ˆg = first((cid:98)G) 1 (cid:98)g = argming guigh 2 if | (cid:98)g | = 1 ならば、g = first((cid:98)g) である。 0.73
(len(θg(s))) (len(θg(s))) 0.47
return i(s) = θˆg(s) return i(s) = θ\g(s) 0.48
3 4 5 else 6 3 4 5 その他 6 0.90
return ∅ 3.2 Predictive Proactivity: Equilibrium Maintenance 返却! 3.2 予測確率:平衡維持 0.63
For doing reasoning on predictive proactivity we employ a computational framework called Equilibrium Maintenance, fully described in Grosinger et al (2019). 予測確率の推論を行うため、grosinger et al (2019) で完全に記述された平衡維持と呼ばれる計算フレームワークを用いる。 0.66
We only give a brief overview of the framework here, the interested reader is referred to the cited reference for details. ここでフレームワークの概要を簡単に説明するだけで、興味のある読者は参考文献を参照してほしい。 0.65
In our framework, the evolution of system Σ by itself, that is, when no robot action is performed, is modelled by its free-run behavior F k. 本フレームワークでは,ロボット動作を行わない場合のシステムΣ自体の進化を,そのフリーラン動作Fkによってモデル化する。 0.70
F k determines the set of states that can be reached from an initial state s in k steps when applying the null input ⊥. f k は初期状態 s から到達可能な状態の集合を k ステップで決定する。
訳抜け防止モード: f k は状態の集合を決定する。 k ステップの初期状態 s からヌル入力 s を適用するときに到達できる。
0.69
F 0(s) = {s} F k(s) = {s(cid:48) ∈ S | ∃s(cid:48)(cid:48) : f (s,⊥, s(cid:48)(cid:48)) ∧ s(cid:48) ∈ F k−1(s(cid:48)(cid:48)) }. f 0(s) = {s} f k(s) = {s(cid:48) ∈ s | s | s(cid:48)(cid:48) : f (s, , s(cid:48)(cid:48)) s(cid:48) ∈ f k−1(s(cid:48)(cid:48)) } である。 0.43
8 8 0.42
英語(論文から抽出)日本語訳スコア
Buyukgoz et al Buyukgoz et al 0.43
Desirable and undesirable states are modeled by Des, a fuzzy set of S. The membership function µDes : S → [0, 1] measures the degree by which a state s is desirable. 会員関数 μDes : S → [0, 1] は状態 s が望ましい程度を測定する。
訳抜け防止モード: 好ましくない状態と好ましくない状態は、S のファジィ集合 Des によってモデル化される。 1 ]状態 s が望ましい程度を測定する。
0.53
Des is extended from states to sets of states in the obvious way: µDes(X) = infs∈X (µDes(s)), where X ⊆ S. We abbreviate µDes(·) as Des(·). des は状態から状態の集合へと明らかな方法で拡張される: μdes(x) = infsservletx (μdes(s)) ここで x は s であり、μdes(·) を des(·) と略す。 0.68
The available robot actions are modeled by action schemes: partial functions α : P(S) → P +(S) that describe how states can be transformed into other states by robot acting. 利用可能なロボットアクションはアクションスキームによってモデル化される: 部分関数 α : p(s) → p +(s) は、ロボット動作によって状態が他の状態へどのように変換されるかを記述する。
訳抜け防止モード: 利用可能なロボット動作はアクションスキームによってモデル化される:部分関数 α : P(S ) → P + (S ) ロボットの動作によって 状態が他の状態に 変換されるかを説明します
0.82
An action scheme α abstracts all details of action: α(X) = Y only says that there is a way to go from any state in the set of states X to some state in set Y . 作用スキーム α はすべての作用の詳細を抽象化する: α(X) = Y は、状態の集合 X の任意の状態から集合 Y の任意の状態へ進む方法が存在するとのみ言う。 0.81
Action schemes can be at any level of abstraction, from simple actions that can be executed directly, to sequential action plans, or policies, or high level goals for one or multiple planners. アクションスキームは、直接実行できる単純なアクションから、シーケンシャルなアクションプラン、ポリシー、あるいは1つまたは複数のプランナーの高レベルな目標まで、あらゆるレベルの抽象化が可能です。 0.77
Applying an action scheme α in a state s may bring about effects that are (or are not) desirable, possibly in k steps in the future. 状態 s に作用スキーム α を適用することは、おそらく将来 k ステップにおいて、望ましい(またはそうではない)効果をもたらすかもしれない。 0.77
We call benefit the degree to which an applied action scheme achieves desirable effects: 我々は、適用されたアクションスキームが望ましい効果を達成する程度を利益と呼ぶ。 0.66
where F k(X) =(cid:83) ここで f k(x) =(cid:83) 0.74
Bnf(α, s, k) = Bnf(α, s, k) = 0.42
inf X∈dom(α,s) inf x.dom (複数形 x.doms) 0.42
Des(F k(α(X))), des(f k(α(x))) 0.62
(2) s∈X F k(s) and dom(α, s) is the domain of α relevant in s. (2) s ∈x f k(s) と dom(α, s) は s に関連する α の領域である。 0.65
With this background, Grosinger et al (2019) define seven different types of opportunity for acting, which are the foundation of proactivity by equilibrium maintenance. この背景から、Grosinger et al (2019) は7つの異なるタイプの行動機会を定義し、これは平衡維持による活性の基盤である。 0.73
We write Oppi(α, s, k) to mean that applying action scheme α in state s is an opportunity of type i, by looking k steps into the future. 我々は、状態 s にアクションスキーム α を適用することが、k ステップを未来に向けることで、タイプ i の機会であることを意味する Oppi(α, s, k) を記述する。 0.76
Opp0(α, s, 0) = min(1 − Des(s), Bnf(α, s)) Opp1(α, s, k) = min(1 − Des(s), Opp2(α, s, k) = min(1 − Des(s), Opp0(α, s, 0) = min(1 − Des(s), Bnf(α, s)) Opp1(α, s, k) = min(1 − Des(s), Opp2(α, s, k) = min(1 − Des(s), 0.43
s(cid:48)∈F k(s) s(cid:48)ftpf k(s) 0.38
sup (Bnf(α, s(cid:48)))) すっごい (Bnf(α, s(cid:48)) 0.48
inf s(cid:48)∈F k(s) inf s(cid:48)ftpf k(s) 0.40
(Bnf(α, s(cid:48)))) (min(1 − Des(s(cid:48)), Bnf(α, s(cid:48)))) (min(1 − Des(s(cid:48)), Bnf(α, s(cid:48)))) (1 − Des(s(cid:48))), Bnf(α, s, k)) (Bnf(α, s(cid:48))) (min(1 − Des(s(cid:48)), Bnf(α, s(cid:48)))) (min(1 − Des(s(cid:48)), Bnf(α, s(cid:48))) (1 − Des(s(cid:48))), Bnf(α, s, k)) 0.44
(1 − Des(s(cid:48))), Bnf(α, s, k)) (1 − Des(s(cid:48))), Bnf(α, s, k)) 0.41
Opp3(α, s, k) = sup Opp3(α, s, k) = sup 0.46
s(cid:48)∈F k(s) s(cid:48)ftpf k(s) 0.38
Opp4(α, s, k) = inf Opp4(α, s, k) = inf 0.46
s(cid:48)∈F k(s) s(cid:48)ftpf k(s) 0.38
Opp5(α, s, k) = min( opp5(α, s, k) = min() 0.46
sup s(cid:48)∈F k(s) すっごい s(cid:48)ftpf k(s) 0.46
Opp6(α, s, k) = min( Opp6(α, s, k) = min( 0.46
inf s(cid:48)∈F k(s) inf s(cid:48)ftpf k(s) 0.40
To understand these opportunity types, consider for example the first type Opp0: the degree by which α is an opportunity of type 0 is the minimum of これらの機会タイプを理解するために、例えば、最初の型 Opp0: α が 0 型の機会である度合いは最小である。 0.86
(i) the degree by which the current state s is undesirable, and (i)現状sが望ましくない程度、及び 0.45
(ii) the benefit of acting now. (ii)今は演技の利点です。 0.62
Intuitively, α is an opportunity of type 0 if (and to the extent) we are in an undesirable state, but enacting α would bring us to a desirable one. 直観的には、α がタイプ 0 の機会であるとは、我々が望ましくない状態にあるとき(そして、ある程度)に、α が成立すれば、望ましい状態になる。 0.72
As another example, consider Opp5: here, we compute the minimum of 別の例として、Opp5を考えてみましょう。 0.54
(i) the maximum undesirability of future states, and (i)将来の状態の最大の望ましくないこと、 0.65
(ii) the future benefit of acting now: intuitively, α is an opportunity of type 5 if (and to the extent) some future states within a look-ahead k are undesirable, but if we enact α now then all the k-steps future states will be desirable. (ii)現在行動する将来の利点:直観的には、α が型 5 の機会であり、ルックアヘッド k 内のいくつかの将来の状態が望ましくないが、もし α を具現化すれば、すべての k-ステップの将来の状態が望ましい。 0.82
Finally, we can define what it means for a system to be in equilibrium from a proactivity perspective. 最後に、前向きな観点から系が平衡であることの意味を定義することができる。 0.73
Frontiers Eq(s, K) = 1 − sup 辺境 Eq(s, K) = 1 − sup 0.43
k,i,α Oppi(α, s, k), k,i,α Oppi(α, s, k) 0.40
(3) 9 (3) 9 0.42
英語(論文から抽出)日本語訳スコア
Buyukgoz et al Buyukgoz et al 0.43
where k ∈ [0, K], i ∈ [0, 6], α ∈ A, where A is the set of all action schemes. ここで k ∈ [0, K], i ∈ [0, 6], α ∈ A であり、A はすべての作用スキームの集合である。 0.81
Intuitively, equilibrium is a measure of lack of opportunities: if there are big opportunities, then the system is very much out of equilibrium; if there are small opportunities, then the system is close to being in equilibrium; if there are no opportunities at all, then the system is fully in equilibrium. 直観的には、均衡は機会の欠如の尺度である:もし大きな機会があるなら、システムは非常に平衡から外れている; もし小さな機会があるなら、システムは平衡に近い;もし機会がなければ、システムは完全に平衡状態にある。 0.67
The notion of equilibrium is used in the equilibrium maintenance algorithm EqM to achieve agent proactivity, as shown in Algorithm 2.2 均衡の概念は、アルゴリズム2.2に示すように、平衡維持アルゴリズムEqMでエージェントの活性を達成するために使われる。
訳抜け防止モード: 平衡の概念は平衡維持アルゴリズム eqm で用いられる エージェントの活性を得る。 アルゴリズム2.2で示されるように
0.86
Algorithm 2: EqM(s, K) 1 if Eq(s, K) < 1 then 2 3 4 5 else 6 アルゴリズム2: EqM(s, K) 1 if Eq(s, K) < 1 then 2 3 4 5 else 6 0.78
Opps ← arg maxk,i,α(Oppi(α, s, k)) (cid:104)α, s(cid:48), Oppi, k, oppdeg(cid:105) ←choose (Opps) return (cid:104)α, s(cid:48), Oppi, k, oppdeg(cid:105) return ∅ Opps > arg maxk,i,α(Oppi(α, s, k)) (cid:104)α, s(cid:48), Oppi, k, oppdeg(cid:105) シュチョース(Opps) return (cid:104)α, s(cid:48), Oppi, k, oppdeg(cid:105) return 0.45
3.3 Action Selection: Integrating Human Intention Recognition and Reasoning and 3.3 行動選択:人間の意図認識と推論の統合 0.81
Equilibrium Maintenance HIRR and EqM are complementary approaches that create proactive acting in different ways. 平衡維持 HIRRとEqMは、異なる方法でプロアクティブな作用を生み出す補完的なアプローチである。 0.62
We now explore how to integrate the two systems. 現在は2つのシステムを統合する方法について検討しています。 0.48
The action selection component in Figure 1 integrates the approaches at the result phase, after each system has proposed their proactive action. 図1のアクション選択コンポーネントは、各システムがプロアクティブアクションを提案した後、結果フェーズでアプローチを統合する。 0.82
However, each approach has a different reasoning mechanism and affects the future states in different ways. しかし、それぞれのアプローチは異なる推論メカニズムを持ち、異なる方法で将来の状態に影響を与える。 0.74
HIRR supports the human towards reaching their intentions. HIRRは人間を目的を達成するために支援する。 0.69
It infers the human’s intention and suggests, or enacts, a sequence of actions to reach the human’s goal starting from the current state. 人間の意図を推測し、現在の状態から人間の目標に到達するための一連のアクションを提案または実行します。 0.65
EqM prevents the human from being in undesirable states by predicting possible state evolutions, and reasoning on what is desirable and how available robot actions could create benefit. EqMは、人間が望ましくない状態になることを防ぎ、状態の進化を予測し、何が望ましいのか、どのようにロボットのアクションが利益をもたらすのかを推論する。 0.58
Integrating the two systems is not trivial. 2つのシステムを統合するのは簡単ではありません。 0.47
Consider the hiking example in the opening of this paper, and suppose that in a given state s, EqM infers an opportunity to warn the human for hail, Opp5(αwarn, s, 2). この論文のオープニングにおけるハイキングの例を考えて、与えられた状態 s において、EqM は、人間に干し草Opp5(αwarn, s, 2) を警告する機会を与えると仮定する。 0.72
Suppose that at the same time HIRR recognized that the human intention is to go hiking and infers to bring the compass to the human. 同時にHIRRは、人間の意図はハイキングに行くことであり、コンパスを人間にもたらすことを推測することである、と認識している。 0.60
We have two competing goals for robot acting, and action selection needs to weigh them via a common scale. ロボット行動には2つの競合する目標があり、アクション選択は共通のスケールでそれらを重み付けする必要がある。 0.70
We propose a solution for integrating EqM and HIRR by turning the goal from HIRR into an opportunity of type Opp0, hence, Opp0(αcollect(compass), s, HIRR から HIRR の目標を Opp0 タイプに転換することで、EqM と HIRR を統合するソリューションを提案し、Opp0(αcollect(compass), s。 0.78
0) and check its degree. 0)で次数を確認します。 0.59
In other words, we check the desirability of the states that would be achieved by the action when applied. 言い換えれば、適用されたアクションによって達成される状態の望ましさをチェックします。 0.63
Note that we use Opp0 here since the decisions by HIRR are meant to be acted upon immediately and do not use multiple step lookahead, just like Opp0. HIRRによる決定はすぐに実行され、Opp0と同じように複数のステップルックアヘッドを使用しないため、ここではOpp0を使用します。 0.68
Once we have converted the individual outputs from HIRR and from EqM to a common format, that is, sets of opportunities, we collect all these opportunities into a pool, from which the Action Selection component (Figure hirrおよびeqmから個々の出力を共通のフォーマット、すなわち機会の集合に変換すると、これらのすべての機会をプールに集め、そこからアクション選択コンポーネント(図)を作成します。 0.68
1) chooses an acting alternative. 1) 代替手段を選択する。 0.73
To transform an HIRR acting decision into an opportunity of type Opp0 we temporarily modify the outcome of the Des-function. HIRRの動作決定をOpp0型に変換するために、Des関数の結果を一時的に修正する。 0.64
In the EqM framework, the Des-function does not take human intentions into account. EqMフレームワークでは、Des関数は人間の意図を考慮していない。 0.65
It does not model states with unfulfilled human intentions as undesirable and those with fulfilled ones as desirable. 満たされていない人間の意図が望ましくない状態や、満たされた意図が望ましい状態の状態をモデル化するものではない。
訳抜け防止モード: 人間の意図を満たさない状態は 望ましくないとモデル化しません そして、充実したものが望ましい。
0.73
Such a Des-function would therefore not generate an opportunity corresponding to an unfulfilled intention. このようなデズ関数は、満たされない意図に対応する機会を生じさせない。 0.62
We therefore temporarily modify Des to decrease the desirability of the current state (Algorithm 3, line 3), modeling the undesirability of unfulfilled intention, and increase the desirability of したがって、我々はDesを一時的に修正し、現在の状態(Algorithm 3, line 3)の望ましくない状態をモデル化し、望ましくない意図の望ましくない状態を減少させます。 0.57
2 This algorithm is a slightly modified version of the original version given in Grosinger et al (2019); this is done to accommodate for the integration with human intention recognition and reasoning, HIRR. このアルゴリズムは、grosinger et al (2019)で与えられたオリジナルバージョンのわずかに修正版であり、人間の意図認識と推論(hirr)の統合に対応するために行われる。 0.74
10 10 0.42
英語(論文から抽出)日本語訳スコア
Buyukgoz et al Buyukgoz et al 0.43
the effects of an action that fullfills the intention (line 4): this allows the generation of an opportunity based on human intention recognition. 意図を完全に満たす行為(4行目)の効果。これは人間の意図認識に基づく機会の生成を可能にする。 0.68
For example, a state that would be desirable to the degree 0.7 by itself might only be 0.1-desirable when a certain human intention has been recognized. 例えば、次数 0.7 がそれ自身で望ましい状態は、ある人間の意図が認識されたときにのみ0.1 である。 0.76
Conversely, we increase the desirability of the effects that would manifest when an action of the human’s intention is applied, which would not be the case otherwise when no human intention was recognized, e g , with recognized human intention Des(α(s)) = 0.9, without recognized human intention Des(α(s)) = 0.3. 逆に、人間の意図の作用が適用された場合に現れる効果の望ましさを高めるが、人間の意図が認識されていない場合(例えば、認識された人間の意図des(α(s)) = 0.9)は、人間の意図des(α(s)) = 0.3である。 0.74
Algorithm 3: HIRR-Opp(s, GH ) 1 α(s) ← first (HIRR(s, GH )) 2 if (α (cid:54)= ⊥) then アルゴリズム3: HIRR-Opp(s, GH ) 1 α(s) > first (HIRR(s, GH )) 2 if (α (cid:54)= ? 0.80
3 4 5 6 7 else 8 3 4 5 6 7 else 8 0.43
Des’(s) ← decrease (Des(s)) Des’(α(s)) ← increase (Des(α(s))) oppdeg ← min(1 − Des’(s), Bnf’(α, s)) return (cid:104)α, s, Opp0, 0, oppdeg(cid:105) return (cid:104)(cid:105) des’(s) を減少させる(des(s)) des’(α(s)) を増加させる(des(α(s))) oppdeg は min(1 − des’(s), bnf’(α, s)) return (cid:104)α, s, opp0, 0, oppdeg(cid:105) return (cid:104)(cid:105) 0.42
In our experiments, we have implemented the decrease and increase functions by scaling by a fixed value; exploring better ways to implement these steps is a matter for further investigation. 実験では, 一定値のスケーリングにより関数の減少と増大を実現し, これらのステップのより良い実装方法を探究することが, さらなる研究の課題である。 0.79
The modified desirability function Des(cid:48)(s) is used in line 8 to compute the degree of the opportunity of type Opp0 for applying action scheme α in the current state s. 修正されたデスティラビリティ関数des(cid:48)(s)は、現在の状態sにアクションスキームαを適用するためのopp0型の機会の度合いを計算するために8行で使用される。 0.73
α is the first action in the recognized intention (action plan) returned by HIRR (line 1). αはHIRR (line 1)によって返される認識された意図(行動計画)の最初のアクションである。 0.78
Note that the computation in line 5 uses a modified Bnf(cid:48)(α, s), which is based on Des(cid:48)(α(s)). 5行目の計算は、Des(cid:48)(α(s))に基づいて修正されたBnf(cid:48)(α, s)を使用する。 0.78
This opportunity, and its degree, are returned in line 6, and represent the opportunity based on human intention recognition. この機会とその程度は6行目で返され、人間の意図認識に基づいて機会を表す。 0.74
Now that we have opportunities for acting based on prediction, as returned from Algorithm 2, and the one based on reasoning on human intention, as returned from Algorithm 3, we can decide which of them to enact in using the action selection Algorithm 4. 今や、アルゴリズム2から返却された予測に基づいて行動する機会と、アルゴリズム3から返却された人間の意図の推論に基づく行動の機会があるので、そのどれを行動選択アルゴリズム4を用いて行動させるかを決定することができる。 0.78
This algorithm continuously checks if the state has changed (line 4), be it by changes in the environment or by application of robot action. このアルゴリズムは、状態が変化したかどうか(ライン4)を環境の変化やロボットアクションの適用によって継続的にチェックする。 0.87
If so, it collects the opportunities coming from both proactivity systems, EqM(s, K) and HIRR(s, GH ) (lines 5 and 6) and then chooses one of these to be dispatched to the executive layer and enacted (line 8). もしそうなら、EqM(s, K) と HIRR(s, GH ) (line 5 と 6) の両方から得られる機会を収集し、これらのうちの1つをエグゼクティブ層に送って実施する(line 8)。 0.66
The function choose(), like the choose() in Algorithm 2, can implement several strategies. 関数 choose() は、アルゴリズム2の choose() のように、いくつかの戦略を実装することができる。 0.74
In our experiments, choose() selects the opportunity with the highest degree to be enacted. 我々の実験では、選択()は実行すべき最高の機会を選択する。 0.79
If there are several opportunities with highest degree a decision is made by the opportunity type, how much benefit can be achieved and the size of the look-ahead. 最大度の高い機会が複数ある場合、オポチュニティタイプによって意思決定が行われ、どのくらいの利益が得られるか、ルックアヘッドのサイズが得られる。 0.65
More discussion on these strategies can be found in (Grosinger et al , 2019). これらの戦略に関するさらなる議論はGrosinger et al , 2019 で見ることができる。 0.79
Algorithm 4: Action Selection (K, GH) 1 while true do s ← current state 2 Opps ← {} 3 if s has changed then 4 5 6 7 8 アルゴリズム4: Action Selection (K, GH) 1 while true do s > current state 2 Opps > {} 3 if s has changed then 4 5 6 7 8 0.36
Opps . add (HIRR-Opp(s, GH )) Opps . オプス。 add (hirr-opp(s, gh )) opps を追加します。 0.51
add (EqM(s, K)) (cid:104)α, s(cid:48), Oppi, k, oppdeg(cid:105) ←choose (Opps) dispatch (α, s(cid:48)) eqm(s, k)) (cid:104)α, s(cid:48), oppi, k, oppdeg(cid:105) schoose (opps) dispatch (α, s(cid:48)) を追加する。 0.85
Frontiers 11 辺境 11 0.43
英語(論文から抽出)日本語訳スコア
Buyukgoz et al Buyukgoz et al 0.43
4 EXPERIMENTS In this section, we empirically explore the behavior of the presented approaches to proactive behavior by running the same simulated task with three different configurations of the system. 4 実験 この節では,システムの3つの異なる構成で同じシミュレートされたタスクを実行することにより,提案手法の動作を実証的に検証する。 0.79
We compare and analyze the outcomes of the system shown in Figure 1 when: 図1に示すシステムの結果を比較し、分析します。 0.68
1. we only use intention based proactivity (HIRR); 1.意図に基づく活動性(HIRR)のみを使用する。 0.64
2. we only use predictive proactivity (EqM); 2.予測プロラクティビティ(eqm)のみを使用する。 0.69
3. we integrate both intention based and predictive proactivity. 3.意図ベースと予測プロラクティビティの両方を統合する。 0.63
Figures 2 and Figure 3 show the systems used for the first two experiments, while the integrated system 図2と図3は、最初の2つの実験に使われたシステムを示しています。 0.74
used for the third experiment is the one previously shown in Figure 1. 第3の実験に使われるのは、図1に示した実験です。 0.70
Figure 2. System model overview for HIRR 図2。 HIRRのシステムモデル概要 0.76
Figure 3. System model overview for EqM 図3。 EqMのシステムモデル概要 0.75
The code is available in a “research bundle” on the European AI-on-demand platform, ai4europe.eu3. コードは、欧州のAIオンデマンドプラットフォームであるai4europe.eu3の“検索バンドル”で利用できる。 0.66
This research bundle includes the open source code, libraries, and a form of a notebook allowing users to interact with the framework by defining their environment. この研究バンドルには、オープンソースコード、ライブラリ、およびユーザーが環境を定義することでフレームワークと対話できるノートブックの形式が含まれている。 0.79
4.1 Task Description We define a hypothetical scenario where a human moves inside a house and collects objects in order to reach a goal. 4.1 タスク記述 我々は、人間が家の中を動き、目標を達成するために物を集める仮定的なシナリオを定義する。 0.73
Figure 4 graphically represents the dynamic system Σ = (cid:104)S, U, f(cid:105) that models our scenario, where arrows show the state transitions f that correspond to possible evolutions of the environment (including actions by the human) if there is no interference from the robot. 図4は、我々のシナリオをモデル化する動的システム Σ = (cid:104)S, U, f(cid:105) をグラフィカルに表現します。
訳抜け防止モード: 図4は動的システム Σ = ( cid:104)S, U, f(cid:105 )は我々のシナリオをモデル化し、もしロボットからの干渉がなければ、矢印は環境の進化(人間による行動を含む)に対応する状態遷移fを示す。
0.81
The figure also indicates the degree of desirability Des(s) of each state s. 図はまた、各状態 s の所望性 Des(s) の度合いを示す。 0.72
In addition to Σ and Des, the scenario includes the set of action schemes given in Table 1 below, and a set GH of four human goals: • Hiking; backpack collected, compass collected, water bottle collected, human is outside. σ と des に加えて、以下の表 1 に与えられる一連のアクションスキームと、• ハイキング、バックパック収集、コンパス収集、水のボトル収集、人間は外にある4つの人間の目標のセットghが含まれる。
訳抜け防止モード: Σ と Des に加えて、このシナリオは以下の表 1 で与えられる一連のアクションスキームを含んでいる。 そして、人間の4つの目標のセットGH • ハイキング ; バックパック収集 コンパスの収集 水のボトルの収集 人間は外にいる
0.84
• Promenade; hat collected, dog collected, walking stick collected, human is outside. ※プロメナード:帽子の収集、犬の収集、杖の収集、人間は外にいる。 0.54
• Watch TV; water bottle collected, sugar collected, tea collected, remote control collected. ・テレビを見てください。水瓶の収集、砂糖の収集、茶の収集、遠隔操作。 0.69
• Read Book; glasses collected, book collected, tea collected, sugar collected. ※読本、眼鏡、本収集、茶収集、砂糖収集 0.49
3 https://www.ai4europ e.eu/research/resear ch-bundles/proactive -communication-socia l-robots 3 https://www.ai4europ e.eu/research-bundle s/proactive-communic ation-social-robots 0.12
12 12 0.42
英語(論文から抽出)日本語訳スコア
Buyukgoz et al Buyukgoz et al 0.42
Figure 4. States and possible state transitions (free-run) in our scenario. 図4。 シナリオにおける状態と可能な状態遷移(フリーラン)。 0.76
Desirability values for each state are color-coded, as well as indicated numerically. 各状態の好ましくない値はカラーコードされ、数値的に示される。 0.67
Green represents desirable states, while pink to red represents less desirable states. 緑色は望ましい状態を表し、ピンクから赤はより望ましい状態を表す。 0.71
The more undesirable a state is, the more intense its red tone. 州が好ましくないほど、その赤いトーンが強くなる。 0.53
Each goal describes what must be true for it to be considered reached. それぞれの目標が達成すべき真実を述べています。 0.65
For example, the goal “Hiking” is reached when it is true that backpack, compass and water bottle are collected and the human is outside. 例えば、バックパック、コンパス、水のボトルが収集され、人間が外にいるのが真実であるときに「ハイキング」がゴールに達する。 0.74
The actions to reach the individual goals can be done both by the human or the robot (except for going outside). 個々の目標を達成するための行動は、人間でもロボットでも(外に出る以外は)できる。 0.76
In our implementation, both the dynamic system and the action schemes are modelled in PDDL. 本実装では,動的システムとアクションスキームの両方をPDDLでモデル化する。 0.81
Recall that PDDL includes a domain definition and a problem definition. PDDLにはドメイン定義と問題定義が含まれていることを思い出してください。 0.63
In the domain definition, we model object definitions, predicate definitions for logical facts, and action definitions with preconditions and effects. ドメイン定義では、オブジェクト定義、論理的事実の述語定義、前提条件と効果によるアクション定義をモデル化します。 0.82
In the problem definition, we model the initial state of the environment in logical format, as well as the goal state. 問題定義において、我々は環境の初期状態を論理形式でモデル化し、ゴール状態もモデル化する。 0.78
Actions are defined for gathering and leaving objects, for telling the human they are ready to leave the house, and for cleaning the dishes. 行動は、物を集め、置き去りにしたり、人間に家を出る準備ができていると告げたり、皿を掃除したりするために定義される。
訳抜け防止モード: アクションはオブジェクトの収集と離脱のために定義されます。 人間に家を出る準備が整っていると 皿の掃除も
0.68
Details are given in Table 1. Some actions can be executed by the robot, some can be executed by the human, and some by both the human and the robot. 詳細は表1にある。 動作はロボットによって実行され、一部は人間によって実行され、一部は人間とロボットの両方によって実行される。 0.71
The actions that are done by the human are observed by the robot, and based on them the HIRR system recognizes the human’s intention. 人間の行動はロボットによって観察され、それらに基づいてHIRRシステムは人間の意図を認識する。 0.71
The EqM system, on the other hand, reasons about potential robot actions while taking into account the human’s actions which are part of the free-run (uncontrollable state transitions). 一方、EqMシステムは、自由走行(制御不能な状態遷移)の一部である人間の行動を考慮に入れながら、潜在的なロボットの動作を理由付けている。 0.77
Note that in this use case all actions are deterministic except for cleaning the dishes which is non-deterministic: the action can have the effect that all dishes are clean or that they are still half dirty. この場合、すべてのアクションは決定論的であり、非決定論的である料理をきれいにする以外は、すべてのアクションが決定論的である。
訳抜け防止モード: このケースでは、すべてのアクションは、非決定論的である料理のクリーニングを除いて決定論的である。 アクションは全ての料理がきれいか それともまだ汚れているかに 影響します
0.67
The defined robot actions are used in the EqM system to infer opportunities. 定義されたロボットアクションはeqmシステムで機会を推測するために使用される。 0.69
HIRR recognizes human intention by inferring the human’s action plan. HIRRは人間の行動計画を推測することで人間の意図を認識する。 0.75
When the intention is recognized, HIRR can make the robot proactively carry out the rest of the human’s action plan on the human’s behalf. 意図が認識されると、hirrはロボットに人間の行動計画の残りを人間に代わって積極的に実行させることができる。
訳抜け防止モード: 意図が認識されるとHIRRは作成できる ロボットは、人間の代理として、人間の行動計画の残りの部分を積極的に実行します。
0.81
However, the human’s action plan towards their goal might contain an action that cannot be carried out by the robot. しかし、人間の目標に向けた行動計画には、ロボットが実行できない行動が含まれているかもしれない。 0.83
In that case the robot transforms the action to a communication action where the robot tells the human what they その場合、ロボットはアクションをコミュニケーションアクションに変換し、ロボットが人間に何を伝えるかを伝える。 0.87
Frontiers 13 user-intent - hiking- promenadeS1.0morning dishes-dirtybackpack -gathered sunshine user-intent - hikingS2.0morningcom pass-gathered backpack-gathered sunshine user-intent- hikingS3.0morningwat er bottle-gatheredcompa ss-gatheredbackpack- gatheredcloudyuser-i ntent- hikingS4.0noonuser-o utdoor hail S4.1noonuser-outdoor rain S3.1morninghat-gathe red dog-gatheredcloudyus er-intent- promenadeS1.1morning dishes-dirtysunshine S0morningbreakfast sunshine S2.1morninghat-gathe red Sunshine user-intent- promenadeDes = 1.0Des = 0.6Des = 0.6Des = 1.0Des = 1.0Des = 1.0Des = 1.0Des = 0.0Des = 0.4user-intent - hiking- promenade 辺境 13 user-intent - hiking- promenadeS1.0morning dishes-dirtybackpack -gathered sunshine user-intent - hikingS2.0morningcom pass-gathered backpack-gathered sunshine user-intent- hikingS3.0morningwat er bottle-gatheredcompa ss-gatheredbackpack- gatheredcloudyuser-i ntent- hikingS4.0noonuser-o utdoor hail S4.1noonuser-outdoor rain S3.1morninghat-gathe red dog-gatheredcloudyus er-intent- promenadeS1.1morning dishes-dirtysunshine S0morningbreakfast sunshine S2.1morninghat-gathe red Sunshine user-intent- promenadeDes = 1.0Des = 0.6Des = 0.6Des = 1.0Des = 1.0Des = 1.0Des = 1.0Des = 0.0Des = 0.4user-intent - hiking- promenade 0.49
英語(論文から抽出)日本語訳スコア
Buyukgoz et al Buyukgoz et al 0.43
should do. For example, after having collected all the necessary items, the human is supposed to leave the house to reach their goal “hiking”. そうすべきよ 例えば、必要なすべてのアイテムを収集した後、人間は家から出て目標の“hike”に到達する。 0.70
The robot can collect all necessary items but cannot leave the house, hence, it tells the human “Everything has been collected. You are ready to leave now for going hiking”. ロボットは必要なアイテムをすべて収集できるが、家から出られないため、人間に「すべてが集められた。ハイキングに行くために今出発する準備ができている」と伝える。 0.72
The desirability function, Des, that computes the desirability degree of each state, is assumed given. 各状態のデスティラビリティ度を計算するデスティラビリティ関数desが与えられる。
訳抜け防止モード: 所望性関数 Des は各状態の所望度を計算する。 と仮定される。
0.56
In Leave object 院 オブジェクトを離れる 0.60
Action Gather object Action Gatherオブジェクト 0.82
Precondition and ( obj is not gathered, human at home ) and ( obj is gathered, human at home ) Leave home human at home Suggest human to leave home human at home Warn human human at home プレコンディションと(Objは集まりません)、(Objは家庭に集まります)、(Objは家庭に集まります)家庭に人間を残します(Suggest human to leave home at Home) 0.58
Clean dishes or ( dishes dirty, dishes half dirty ) 清潔な料理 または(皿が汚れ、皿が汚れている) 0.67
Effect human gathered object 効果人間収集オブジェクト 0.68
Agent human / robot エージェント人間/ロボット 0.80
human not gathered object human / robot 人間は集まっていない 人/ロボット 0.78
human not at home human not at home and ( human at home, human warned ) or ( dishes not dirty dishes half dirty ) 家庭にいない人間(家庭にいない人間、人間に警告されている)、または(汚れていない皿が汚れていない)
訳抜け防止モード: 家にいない人間 家にいない人間(家にいる人間) 人間の警告)または( 汚れた皿が半分汚れていない料理
0.72
human robot robot human / robot 人間ロボットは 人間/ロボット 0.78
Table 1. The table provides the actions that the human and the robot are capable to do. 表1。 テーブルは、人間とロボットができることのアクションを提供します。 0.73
It provides the name of the action (possibly including a parameter), preconditions of the actions and the effects that will show after the action is applied, as well as who can do the action (human and/or robot). アクションの名前(パラメータを含む可能性がある)、アクションの前提条件、アクションが適用された後に現れる効果、アクションを実行できる人(人間および/またはロボット)を提供する。
訳抜け防止モード: これはアクションの名前(おそらくパラメータを含む)を提供する。 行動の前提条件と行動の後に現れる効果が適用される 誰だけでなく アクション(人間および/またはロボット)を行うことができる。
0.81
our example scenario, we consider one specific run where the state evolves as follows: s0 , s1.0 , s2.0 , s3.0 (see Figure 4). 私たちの例では、状態が進化する特定の実行として、s0 , s1.0 , s2.0 , s3.0 がある(図 4 参照)。 0.64
The system starts in s0 where the weather is nice, time is morning and the human is having breakfast. システムは、天気が良いs0から始まり、時間は朝で、人間が朝食を食べている。 0.78
This state is very desirable, Des(s0) = 1.0. des(s0) = 1.0 この状態は非常に望ましい。 0.80
Later the state is changed to s1.0 where the weather is still nice and the time is still morning, but the human finished their breakfast so there are dirty dishes and the human collected the backpack. その後、状態は s1.0 に変更され、天候は良好で、時刻は午前中だが、人間は朝食を終え、汚れた料理があり、人間はバックパックを回収する。 0.79
This state is less desirable, Des(s1.0) = 0.6. des(s1.0) = 0.6 である。 0.60
Later the state evolves to s2.0, where the weather is cloudy and dishes are cleaned. 後に州はs2.0に進化し、天候は曇り、料理はきれいになる。 0.67
In addition to the backpack, now the compass is collected. バックパックに加えて、コンパスが収集される。 0.49
The last state chance is to s3.0, where the weather is cloudy, time is morning and the human has collected the water bottle in addition to the previously collected belongings backpack and compass. 最後の状態は、天候が曇り、時間が朝であり、人間が以前収集したバックパックとコンパスに加えて水のボトルを集めたs3.0です。 0.65
Note that the predicate “dishes-dirty” changes from true (in s1.0 and s1.1) to false (in s2.0 and s2.1). 述語 "dishes-dirty" は true (s1.0 と s1.1) から false (s2.0 と s2.1) に変更される。 0.73
This is because the free-run state evolution models all uncontrollable state transitions which includes the environment and the human. これは、フリーラン状態進化が環境と人間を含む制御不能状態遷移をすべてモデル化するためである。 0.73
Hence, the dishes not being dirty anymore means that the human has taken care of cleaning them. したがって、食器が汚れていないということは、人間が掃除を手伝うことを意味する。 0.69
4.2 Human Intention Recognition and Reasoning Only 4.2 意図認識と推論のみ 0.80
We consider the scenario described in Figure 4 using only human intention recognition and reasoning for achieving proactive agent activity. 図4に示すシナリオは、人間の意図認識と推論だけで、プロアクティブなエージェント活動を達成することができる。 0.65
This means we evaluate an implementation of the method HIRR as described in Section 3.1. これは,第3.1節で記述したHIRR法の実装を評価することを意味する。 0.60
The architecture of the system is shown in Figure 2. システムのアーキテクチャは図2に示されます。 0.74
Table 2 lists the recognized human intentions in the respective state and the proactive agent activity inferred. 表2は、各状態における認識された人間の意図と、推定される活動を示す。 0.67
In s0, the HIRR cannot recognize yet what the human’s intention is, it could be any of the four known human goals, going on a hike or going on a promenade, watching TV or reading a book. s0では、HIRRは人間の意図をまだ認識できないため、ハイキングやプロメナード、テレビの視聴、本を読むなど、既知の4つの人間の目標のいずれかになる可能性がある。 0.67
Then the state advances to s1.0 where a backpack is collected. そして、状態がs1.0に進み、バックパックが収集される。 0.70
In this state, the HIRR is able to detect that the human’s intention is to go on a hike. この状態でHIRRは、人間の意図がハイキングに行くことを検出することができる。 0.54
The HIRR can infer to proactively bring the water bottle to the human as this is the next action inferred in the human’s action plan. HIRRは、人間の行動計画で推測される次のアクションである水のボトルを人間に積極的に持ち込むことができる。 0.76
The action is dispatched and the robot proactively brings the water bottle to the human (in simulation). アクションが送信され、ロボットが積極的に水筒を人間に持ってくる(シミュレーション)。 0.76
Now the human has the backpack (gathered by the human him-/herself) and 今や人間はバックパックを持っている(人間に群がっている)。 0.65
14 14 0.42
英語(論文から抽出)日本語訳スコア
Buyukgoz et al Buyukgoz et al 0.43
State s0 s1.0 s(cid:48) 2.0 s3.0 State s0 s1.0 s(cid:48) 2.0 s3.0 0.28
Intention recognized Proactive agent activity chosen - HIRR ? HIRRが選択された意図的プロアクティブ・エージェント活性 0.66
hiking hiking ? — gather water bottle tell human that he/she is ready to leave the house — ハイキング? 水のボトルを集めると、彼は家を出る準備ができていると人間に知らせる。 0.45
Table 2. The state evolution and the proactive agent activity inferred in each state when using human intention recognition and reasoning only. 表2。 人間の意図認識と推論のみを使用する場合、各状態における状態進化とプロアクティブエージェント活性が推定される。 0.72
the water bottle (gathered by the robot). 水のボトル(ロボットが集める)。 0.65
The state evolution advances to the next state s(cid:48) 2.0. 状態の進化は次の状態s(cid:48) 2.0に進む。 0.75
In this state also a compass is gathered, which was done by the human. この状態では、人間によって行われたコンパスも収集される。 0.59
(For any state s in the free-run in Figure 4, s(cid:48) marks its equivalent on which robot action has been applied. (図4の任意の状態 s に対して s(cid:48) は、どのロボットアクションが適用されたかに等価である。 0.82
) Again, the intent recognition detects that the human’s intention is going on a hike. 繰り返しますが、意図認識は人間の意図が上昇していることを検知します。 0.59
The intention reasoning system detects that all necessary items for going on a hike have been collected. 意図推論システムは、ハイキングに必要なすべてのアイテムが収集されたことを検知する。 0.70
Therefore, it infers the proactive activity of notifying the human that he/she is ready to leave. そのため、出かける準備ができていることを人間に知らせる積極的な活動を推測する。 0.64
Note that, in state s(cid:48) 2.0 (which is the state s2.0 plus applied robot action) the same predicates are true as in s3.0. 状態 s(cid:48) 2.0(状態 s2.0 + 応用ロボット作用)では、同じ述語が s3.0 と同じである。 0.84
This is eligible and expected as the robot’s proactive acting is doing part of the human’s action plan based on human intention recognition and reasoning. ロボットの積極的な行動は、人間の意図認識と推論に基づいて人間の行動計画の一部になっているため、これは適当であり、期待されている。
訳抜け防止モード: これは適当であり、予想通りです ロボットのプロアクティブな行動 人間の意図認識と推論に基づいて、人間の行動計画の一部を実行することです。
0.77
Therefore, a state s(cid:48) 2.0 would not evolve into s3.0 (which is identical), but into states s4.0 or s4.1 where the human is outdoors. したがって、状態 s(cid:48) 2.0 は s3.0 (同一) ではなく、人間が屋外にいる状態 s4.0 または s4.1 へと発展する。 0.71
Note that, once the human has left the house, proactive interaction from our system with him/her is not possible. ひとたび人間が家を出ると、我々のシステムと彼/彼女のシステムからの積極的な相互作用は不可能である。 0.62
That is why there is no intention recognized in s4.0, s4.1. したがって、s4.0, s4.1 では認識されない。 0.69
Note also that these states are quite undesirable (Des(s4.0) = 0.0 and Des(s4.1) = 0.4), as the user is outdoors while weather conditions are unpleasant (rain) or even dangerous (hail). また、これらの状態は非常に望ましくない(des(s4.0) = 0.0、des(s4.1) = 0.4)。
訳抜け防止モード: また、これらの状態は全く望ましくない(des(s4.0 ) = 0.0、des(s4.1 ) = 0.4 )。 ユーザーが屋外にいると 天候は不快(雨)、危険(コール)である。
0.71
The algorithm for human intention recognition and reasoning neither does any prediction of future states nor reasons about desirability/prefere nce. 人間の意図認識と推論のためのアルゴリズムは、将来の状態の予測も予測可能性/参照の理由も行わない。 0.66
Therefore, it is ignorant of the upcoming undesirable situation and cannot act on it. そのため、今後の望ましくない状況に無知であり、それに対処することができない。 0.65
4.3 Equilibrium Maintenance Only 4.3 均衡維持のみ 0.71
We again consider the use case described in Figure 4 but now using equilibrium maintenance only for achieving proactive agent activity. 図4に示すようなユースケースも検討するが、現在、平衡維持は積極的なエージェント活動を達成するためにのみ行われている。 0.56
This means we test an implementation of the equilibrium maintenance algorithm as described in Section 3.2. これは,3.2節で述べた平衡維持アルゴリズムの実装をテストすることを意味する。 0.70
Table 3 lists the opportunities for acting inferred in the respective state and the proactive agent activity to be enacted, i.e., the chosen opportunity. 表3は、各州で推測される行動の機会と、制定される積極的なエージェント活動、すなわち選択された機会をリストアップする。
訳抜け防止モード: 表3は機会のリストです それぞれの状態において推測される作用 プロアクティブ・エージェントの活動が 実行され 選択された機会が
0.86
The outcome of EqM depends very much on the size of the prediction, K. In our system run, we set K = 2. eqmの結果は予測のサイズに大きく依存します。
訳抜け防止モード: eqmの結果は予測の大きさに大きく依存する。 k. システム実行時、k = 2 をセットします。
0.69
(See Grosinger et al (2019) for a discussion on the choice of the look-ahead horizon K. (See Grosinger et al (2019) はルックアヘッド地平線 K の選択に関する議論を行う。 0.73
) We let EqM infer opportunities for acting that are current (k = 0), one time step in the future (k = 1), and two time steps in the future (k = 2). ) 現状(k = 0)、未来(k = 1)における1つの時間ステップ、未来(k = 2)における2つの時間ステップをEqMに推論させる。 0.73
The state evolution starts in state s0. 状態の進化は状態 s0 から始まる。 0.81
The following opportunities are inferred: EqM does not infer to act in the current state, s0, because the human is having breakfast and the state is very desirable, Des(s0) = 1.0. eqmは、人間が朝食を食べており、状態がとても望ましい、des(s0) = 1.0であるので、現在の状態であるs0で作用することを推測しない。 0.71
However, when projecting the state 1 time step into the future, EqM observes that the upcoming possible states will be less desirable, Des(s1.0) = 0.6 and Des(s1.1) = 0.6, because there will be dirty dishes from the breakfast. しかし、EqMは州1の時間を将来に向けると、次の州では、朝食から汚れた皿があるため、Des(s1.0) = 0.6 と Des(s1.1) = 0.6 がより望ましいと見ている。 0.75
Therefore, EqM infers the opportunities for the robot to put the dishes in the dishwasher in the future, i.e., 1 step from now. そのため、EqMはロボットが今後食器洗い機に皿を入れる機会、すなわち1歩先を推測する。 0.62
There are no opportunities for acting in 2 time steps. 2つのステップで行動する機会はありません。 0.76
When the human gathers the backpack, state s0 evolves to s1.0. 人間がバックパックを集めると、状態 s0 は s1.0 に進化する。 0.67
The state is not very desirable, Des(s1.0) = 0.6, because there are dirty dishes from the breakfast. des(s1.0) = 0.6 朝食の汚れた料理があるので、状態はあまり望ましいものではない。 0.74
EqM infers the opportunity for the robot to put the dirty dishes in the dish washer now, in the current state s1.0. eqmは、現在のs1.0において、ロボットが汚れた皿を皿の洗濯機に入れる機会を推測している。 0.69
Note that, what before in s0 had been an opportunity for acting in the future, is now an opportunity for acting in the present. s0の以前のことは将来における演技の機会であり、現在における演技の機会となっていることに注意されたい。 0.67
When the human gathers the compass, the state evolves into s2.0. ヒトがコンパスを集めると、状態はs2.0に進化する。 0.67
The state is desirable again, Des(s2.0) = 1.0, because the dishes are not dirty any more. 状態が再び望ましいのは、Des(s2.0) = 1.0である。 0.47
This means either the robot has enacted the opportunity of putting the dishes in the dish washer in the previous state, or putting the dishes in the dish washer has happened through uncontrollable action as これは、ロボットが以前の状態の皿洗い機に皿を置く機会を制定したか、制御不能な動作によって皿洗い機に皿を入れたかのいずれかを意味する。 0.76
Frontiers 15 辺境 15 0.43
英語(論文から抽出)日本語訳スコア
Buyukgoz et al Buyukgoz et al 0.43
State Opportunities inferred s0 s0を推測する州の機会 0.51
s1.0 s2.0 s1.0 の表示 s2.0 0.26
s3.0 Opp3,4,5,6(αgather(any), s, s3.0 Opp3,4,5,6(αgather(any), s, 0.29
1) = 0.01 Opp3,4(αclean, s, 1) = 0.01 Opp3,4(αclean, s, 0.38
1) = 0.4 Opp0(αgather(any), s, 1) = 0.4 Opp0(αgather(any), s, 0.48
0) = 0.01 Opp0(αclean, s, 0) = 0.01 Opp0(αclean, s, 0.43
0) = 0.4 Opp1,2(αgather(any), s, 0) = 0.4 Opp1,2(αgather(any), s, 0.43
1) = 0.01 Opp1,2(αgather(any), s, 1) = 0.01 Opp1,2(αgather(any), s, 0.43
2) = 0.01 Opp5,6(αgather(any), s, 2) = 0.01 Opp5,6(αgather(any), s, 0.43
2) = 0.01 Opp5(αwarn, s, 2) 0.01 opp5(αwarn, s, 0.43
2) = 1.0 Opp6(αwarn, s, 2) = 1.0 Opp6(αwarn, s, 0.43
2) = 0.6 Opp5,6(αgather(any), s, 2) = 0.6 Opp5,6(αgather(any), s, 0.43
1) = 0.01 Opp5(αwarn, s, 1) = 0.01 Opp5(αwarn, s, 0.43
1) = 1.0 Opp6(αwarn, s, 1) = 1.0 Opp6(αwarn, s, 0.43
1) = 0.6 Proactive agent activity chosen 1) = 0.6 プロアクティブエージェント活性の選択 0.60
Clean dishes in 1 step 1ステップで清潔な料理 0.73
Clean dishes now Warn for hail, effect seen in 2 steps 今 清潔な料理 コールに警告する 効果は2段階で見られる 0.61
Warn for hail, effect seen in 1 step call for hail, effect in 1 step (英語) 0.64
Table 3. The state evolution and the proactive agent activity inferred in each state when using equilibrium maintenance only. 表3。 平衡維持のみを用いる場合, 状態変化と活性剤活性は各状態で推定された。 0.55
Note that αwarn refers to warning the human for risk of bad/harmful weather conditions, αclean refers to cleaning the dishes, i.e., putting them in the dishwasher, αgather(any) refers to gather any object for the human. 注意すべきは、αwarn は人間に悪天候の危険を警告すること、αclean は皿を掃除すること、すなわち皿洗い機に入れること、αgather (any) は人間の物を集めることを指す。 0.73
part of the free-run, i.e., the human has put the dishes in the dish washer. フリーランの一部である人間は、皿の洗濯機に皿を入れている。 0.66
In s2.0 there are no opportunities considering the current state or taking a look-ahead of k = 1. s2.0では、現在の状態やk = 1のルックアヘッドを取る機会はない。 0.74
However, when EqM projects the state two steps into the future, it appears that the possible states are very undesirable, Des(s4.0) = 0.0, and quite undesirable, Des(s4.1) = 0.4. しかし、eqmが状態の2つのステップを未来に投影すると、可能な状態は、非常に望ましくない、des(s4.0) = 0.0、そして非常に望ましくないdes(s4.1) = 0.4である。 0.68
This is because the human will be outdoors and the weather will be very bad (rain) or even dangerous (hail). これは、人間が屋外にいて、天気がとても悪い(雨)、あるいは危険(雨)になるからである。 0.71
EqM therefore infers an opportunity for the robot to act now in order to prevent the future very undesirable outcome. そのため、EqMは将来望ましくない結果を避けるために、ロボットが現在行動する機会を推測する。 0.76
More concretely, the robot proactively goes to the human and warns the human now in order to prevent him/her to be outdoors in the hail later. より具体的には、ロボットは人間に積極的に行き、現在人間に警告し、彼/彼女の屋外にいるのを後日防ぐ。 0.76
In case the warning is not heeded, in s3.0 the same opportunity for acting is inferred, only that now the look-ahead is one time step instead of two. 警告がヘッジされない場合、s3.0では、同じ行動の機会が推測されるが、現在、ルックアヘッドは2つではなく1つのステップである。 0.64
4.4 Human Intention Recognition and Reasoning and Equilibrium Maintenance 4.4 人間の意図認識・推論・平衡維持 0.74
As before, we consider the use case described in Figure 4 but now using both HIRR and EqM for achieving proactive agent activity. 前述したように、図4に記述したユースケースを考慮しながら、現在、hrrとeqmの両方をプロアクティブエージェント活動の達成に使用しています。 0.55
This means we have a system as described in Section 3.3. つまり、3.3に記載されたシステムがある。 0.67
Table 4 lists the opportunities inferred by HIRR and the opportunities inferred by EqM, in the respective state and marks which of them is chosen to be enacted. 表4は、hirrが推定する機会と、eqmが推定する機会を、それぞれの州で一覧し、それらのどれが制定されるかを示す。
訳抜け防止モード: 表4は、HIRRが見積もる機会とEqMが見積もる機会をリストアップする。 それぞれの状態とマークで、どれが制定されるかを選択します。
0.70
In s0, there are no opportunities by HIRR since the human intention cannot be unambiguously determined yet which yields zero opportunities for proactive acting (see Section 3.1). s0 では、人間の意図が曖昧に決定できないため、hrr による機会がないため、プロアクティブな演技の機会はゼロとなる(第3条第1項参照)。 0.65
EqM, on the other hand, does infer opportunities for acting in state s0. 一方、EqMは状態s0で行動する機会を推測する。 0.60
The one opportunity with the greatest degree, and hence, the one chosen, is an opportunity to clean the dishes in 1 time step from now, Opp3,4(αclean, s0, 1). 最高の度合いを持つ1つの機会、したがって選ばれた1つの機会は、現在から1ステップで皿をきれいにする機会であるOpp3,4(αclean, s0, 1)。 0.77
In s1.0, there is an opportunity coming from HIRR since the human intention is recognized as ”hiking”. s1.0では、人間の意図が"ハイキング"と認識されるため、HIRRから来る機会がある。 0.65
Hence, there is an opportunity to gather the water bottle, Opp0(αgather(wb), s1.0, 0). したがって、水のボトル、Opp0(αgather(wb), s1.0, 0)を集める機会がある。 0.87
The degree and the type of the opportunity is computed according to Algorithm 3. この機会の度合いと種類はアルゴリズム3に従って計算される。 0.71
Also EqM produces opportunities in s1.0. また、EqMはs1.0でチャンスを生み出す。 0.55
The opportunity from EqM which has the highest degree is cleaning the dishes now — this is the opportunity from s0, now being of type Opp0 (to be applied now), while it was an opportunity for the future, Opp3,4, in s0. 最高の学位を持つeqmのチャンスは、現在皿を掃除することです — これは、現在opp0型(現在は適用可能)であるs0からの機会ですが、s0ではopp3,4型という将来的な機会でした。 0.78
HIRR’s opportunity to gather the water bottle now is chosen to be enacted. HIRRが現在、水のボトルを集める機会は、制定される。 0.64
How to choose between the opportunities from HIRR and EqM is determined by Algorithm 4. HIRRとEqMをどちらに選択するかはアルゴリズム4によって決定される。 0.75
16 16 0.42
英語(論文から抽出)日本語訳スコア
Buyukgoz et al Buyukgoz et al 0.43
State Proactive acting — HIRR s0 State Proactive act - HIRR s0 0.46
s1.0 Opp0(αgather(wb), s, 0) = 0.5 s1.0 の表示 Opp0(αgather(wb), s, 0) = 0.5 0.39
s2.0 Opp0(αleave, s, 0) = 0.5 s2.0 Opp0(αleave, s, 0) = 0.5 0.33
s3.0 Opp0(αleave, s, 0) = 0.5 s3.0 Opp0(αleave, s, 0) = 0.5 0.33
Proactive acting — EqM Opp3,4,5,6(αgather(any), s, プロアクティブ作用-eqm opp3,4,5,6(αgather(any),s 0.65
1) = 0.01 Opp3,4(αclean, s, 1) = 0.01 Opp3,4(αclean, s, 0.38
1) = 0.4 Opp0(αgather(any), s, 1) = 0.4 Opp0(αgather(any), s, 0.48
0) = 0.01 Opp0(αclean, s, 0) = 0.01 Opp0(αclean, s, 0.43
0) = 0.4 Opp1,2(αgather(any), s, 0) = 0.4 Opp1,2(αgather(any), s, 0.43
1) = 0.01 Opp1,2(αgather(any), s, 1) = 0.01 Opp1,2(αgather(any), s, 0.43
2) = 0.01 Opp5,6(αgather(any), s, 2) = 0.01 Opp5,6(αgather(any), s, 0.43
2) = 0.01 Opp5(αwarn, s, 2) 0.01 opp5(αwarn, s, 0.43
2) = 1.0 Opp6(αwarn, s, 2) = 1.0 Opp6(αwarn, s, 0.43
2) = 0.6 Opp5,6(αgather(any), s, 2) = 0.6 Opp5,6(αgather(any), s, 0.43
1) = 0.01 Opp5(αwarn, s, 1) = 0.01 Opp5(αwarn, s, 0.43
1) = 1.0 Opp6(αwarn, s, 1) = 1.0 Opp6(αwarn, s, 0.43
1) = 0.6 Chosen Proactive Action 1) = 0.6 ちょうせんプロアクティブアクション 0.56
Clean dishes in 1 step 1ステップで清潔な料理 0.73
Gather water bottle now 水のボトルをもうけろ 0.66
Warn for hail, effect seen in 2 steps コールに警告する 効果は2段階で見られる 0.58
Warn for hail, effect seen in 1 step call for hail, effect in 1 step (英語) 0.64
Table 4. The state evolution and the proactive agent activity inferred in each state when using both human intention recognition and reasoning and equilibrium maintenance. 表4。 ヒトの意図認識と推論と平衡維持の両方を利用する場合、状態の進化と活性剤活性は各状態で推定された。
訳抜け防止モード: 表4。 それぞれの状態において推定される状態進化とプロアクティブエージェント活性 人間の意図認識と推論と均衡維持の両方を使います
0.59
(Note that αwarn refers to warning the human for risk of bad/harmful weather conditions, αclean refers to cleaning the dishes, i.e., putting the dishes in the dish washer, αgather(any) refers to gathering any object for the human, and αleave refers to informing the human that he/she is ready to leave the house. (αwarnは悪天候の危険を人間に警告すること、αcleanは皿を掃除すること、すなわち皿に皿を入れること、αgather(any)は人間の物を集めること、αleaveは人間に家を出る準備ができていることを知らせることを指す。) 0.66
) The human now has the backpack (gathered by the human him-/herself) and the water bottle (gathered by the robot). ) 人間は現在、バックパック(人間によって収集される)と水のボトル(ロボットによって収集される)を持っている。 0.54
The state evolution advances to the next state s(cid:48) 2.0 (which is the state s2.0 plus applied robot action) the same predicates are true as in s3.0 (see also Section 4.2). 状態進化は次の状態 s(cid:48) 2.0(状態 s2.0 と応用ロボットアクション)へと進み、同じ述語が s3.0 と同じである(セクション 4.2)。 0.81
HIRR recognizes going on a hike as the intention of the human and proposes the opportunity to inform the human that he/she is ready to leave the house as all belongings for the hike have been packed. HIRRはハイキングに行くことを人間の意図と認識し、ハイキングの持ち物はすべて詰め込まれているので、人間に家を出る準備が整っていることを知らせる機会を提案する。 0.68
EqM proposes opportunities for warning the human about undesirable (rain) or possibly dangerous weather conditions (hail) as the human is predicted to be outdoors in the future, two time steps from now. EqMは、今後2回、人間が屋外にいると予測されるため、人間に望ましくない(好ましくない)または危険な気象条件(悪天候)について警告する機会を提案する。 0.79
The opportunity coming from EqM (warning the human) has a higher degree, 0.6, than the opportunity coming from HIRR (”ready-to-go”-message for the human) which has a degree of 0.5. EqM(人間を警告する)から来る機会は、0.5のHIRR(人間への"ready-to-go"-message)から来る機会よりも高い0.6である。 0.73
Therefore, the combined system of HIRR and EqM chooses to dispatch the robot activity of warning the human. そのため、HIRRとEqMの組み合わせシステムは、人間を警告するロボット活動の派遣を選択する。 0.77
2.0. Note that, in state s(cid:48) 2.0. 注意すべきは、状態 s(cid:48) において 0.46
In s3.0, since the conditions have not changed HIRR infers the opportunity to confirm the human that they have gathered all necessary items and hence are ready to leave the house for going hiking. s3.0では、条件が変わっていないため、HIRRは必要なアイテムをすべて収集したことを人間に確認する機会を推測するので、ハイキングに行くために家を出る準備ができている。 0.58
The warning of EqM has not been heeded in the previous state by the human, hence, EqM again infers to warn the human for the future unpleasant/dangerous weather, only now just one time step into the future instead of two. eqmの警告は、人間によって以前の状態では監視されていないため、eqmは再び人間に、将来の不快で危険な天候について警告することを推測している。
訳抜け防止モード: EqMの警告は、人間によって以前の状態から取り除かれていない。 そのため、EqMは人間に将来の不快/危険な天候を警告する。 たった1回だけ 未来に足を踏み入れただけだ。
0.75
5 DISCUSSION AND CONCLUSION In this paper, we have analyzed two approaches to proactivity: HIRR, human intention recognition and reasoning, that infers proactive actions by recognizing the human’s intended plans and taking over the next action in these plans; and EqM, equilibrium maintenance, that infers opportunities for acting by reasoning about possible future states and about what states are preferable. 5 Disciussion and ConcLUSION本論文では,人間の意図認識と推論という,人間の意図した計画を認識して次の計画を引き継ぐことによって積極的に行動を起こすための2つのアプローチと,将来の状態や国家が望ましいかを推論して行動を起こすための均衡維持手法であるEqMについて分析した。 0.84
We have then defined a third approach which combines these two types of proactivity, and have illustrated the three approaches on a sample use case. 次に、これらの2種類の積極性を組み合わせた第3のアプローチを定義し、サンプルユースケースにおける3つのアプローチを例示しました。 0.61
Our analysis shows that each approach can generate some proactive behaviors but not others. 分析の結果,各アプローチはプロアクティブな振る舞いを生成できるが,他の手法は生成しないことが示された。 0.45
HIRR focuses on helping humans towards achieving their intentions, whereas EqM focuses on preventing humans to end up in undesirable situations. HIRRは人間の意図の実現を支援することに焦点を当て、EqMは人間が望ましくない状況に陥るのを防ぐことに焦点を当てている。 0.62
EqM does not consider humans’ intentions and EqMは人間の意図を考慮せず 0.78
Frontiers 17 辺境 17 0.43
英語(論文から抽出)日本語訳スコア
Buyukgoz et al Buyukgoz et al 0.43
therefore cannot generate proactive behavior to support the human to achieve them; HIRR, on the other hand, does not reason about how the state will evolve and about the overall desirability of future states, and therefore cannot generate proactive behavior based on the predicted benefit of actions. HIRRは、状態がどのように進化するか、将来の状態の全体的な望ましくないため、予測された行動の利益に基づいてプロアクティブな行動を生成することはできない。
訳抜け防止モード: ですから人間を養うために 積極的に行動を起こすことはできないのです 一方 HIRR は、状態がどのように進化するかを推論しません。 将来の状態の全体的な望ましさについて、従って、予測された行動の利益に基づいて、積極的に行動を起こすことはできない。
0.57
The combined system can take into account both, humans’ intentions and the desirability of future states. この統合システムは、人間の意図と将来の状態の望ましさの両方を考慮に入れることができる。 0.68
In this work, we have explored a rather simple way to combine these two aspects, where HIRR and EqM independently propose proactive actions and one of those is selected. 本研究では, HIRR と EqM が独立にプロアクティブな行動を提案し, その1つが選択されるという, この2つの側面を組み合わせるための比較的単純な方法を検討した。 0.68
This can be called late integration. これは遅延統合と呼ばれる。 0.68
Future work will investigate early forms of integration, where reasoning on human intentions, on available robot’s actions, on future states and on preferences among those states is done in an integrated fashion. 将来の研究は、人間の意図、利用可能なロボットの行動、将来の状態、およびそれらの状態間の選好に関する推論が統合的に行われるような、初期の統合形態を調査します。 0.63
This tighter integration of HIRR and EqM will require a shared formulation for the two. このHIRRとEqMのより緊密な統合は、この2つの共通な定式化を必要とする。 0.56
Our current framework is built on state descriptions that only consider the physical world. 現在のフレームワークは物理的世界のみを考慮した状態記述に基づいています。 0.72
In future work, it will be interesting to include the inner world of the human. 将来的には、人間の内なる世界を含めることも興味深いだろう。 0.65
We plan to explore the use of techniques from the area of epistemic logic and epistemic planning to model intentions, knowledge and beliefs of human agents. 我々は,人間のエージェントの意図,知識,信念をモデル化するために,疫学論理学と疫学計画の領域から技術の利用を検討する。 0.66
The Des-function and benefit of acting can then also take into account the preferences of mental states and how to bring preferable epistemic states about. 行動のdes機能と利益は、精神状態の選好と、どのように好ましい認識状態をもたらすかを考慮に入れることもできる。 0.62
While we considered a single human in this paper, both HIRR and EqM can in principle consider multiple humans: one would then have to track separately the single actions of each person and infer their intentions. この論文では一人の人間を考えたが、HIRRとEqMは原則として複数の人間を考慮できる。
訳抜け防止モード: 本論文では一人の人間とみなす一方で、HIRRとEqMは原則として複数の人間を考慮できる。 それぞれの人の行動を 別々に追跡し 意図を推測しなければなりません
0.84
If the humans are collaborating, HIRR could consider all of the humans’ actions together to infer the collective intention. もし人間が協力しているなら、HIRRは人間の行動をすべて一緒に検討して、集団的な意図を推測することができる。 0.58
EqM can fuse the single humans’ preferences in one overall Des-function. EqMは、単一の人間の好みを1つのDes機能に融合させることができる。 0.46
The results of EqM, as well as the results of the combined system HIRR + EqM, strongly depend on the models of the dynamics of the system Σ, which determines the prediction of the state evolution (free-run), and on the modeling of preferences (Des-function). EqMの結果と、結合系 HIRR + EqM の結果は、状態進化(フリーラン)の予測を決定するシステム Σ の力学のモデルと、好みのモデリング(デ=ファンクション)に強く依存する。 0.60
To see this, consider the example in Section 4. これを見るには、第4節の例を見てみよう。 0.59
In state s1.0 the opportunity of HIRR, gather the water bottle, is chosen over the opportunity of EqM, clean the dishes. 州 s1.0 では、水瓶を集める HIRR の機会が EqM の機会に選ばれ、皿をきれいにする。 0.73
If the desirability function modeled a stronger undesirability of dirty dishes, then the degree of the opportunity by EqM would have been higher and hence this opportunity would have been chosen to be enacted. もし望ましさ関数が汚れた料理の望ましくないものをモデル化したならば、eqmによる機会の度合いは高くなり、したがってこの機会が制定されることになったであろう。 0.62
Further, consider a slightly modified state dynamics, that differs from the one in Figure 4. さらに、図4のものと異なるわずかに修正された状態ダイナミクスを考えてみましょう。 0.77
In these modified state dynamics, the states at time 4 have weather conditions ’sun’ and ’clouds’ (instead of ’rain’ and ’hail’). 修正された状態のダイナミクスでは、時刻4の州は、('rain'と'hail'の代わりに)'sun'と'clouds'の天候条件を持つ。 0.75
In this use case, EqM would only infer to clean the dishes in state s1.0 but it would not support the human preparing for their hike because it is not reasoning on the human’s intention. このユースケースでは、EqMは、状態s1.0の皿をきれいにすることだけを推測するが、人間の意図に従わないため、ハイキングの準備を人間がサポートしない。 0.72
HIRR, on the other hand, could provide a lot of support to the human to achieve their intention and would achieve a very desirable final outcome: the human out on a hike with all their belongings gathered. 一方、hirrは、彼らの意図を達成するために、人間に多くの支援を提供することができ、非常に望ましい最終結果を達成するだろう。
訳抜け防止モード: 一方HIRRは、人間に多くの支援を提供することができる 目的を達成するために そして、非常に望ましい最終結果が得られます。人間は、すべての持ち物を集めてハイキングに出かけます。
0.70
In this paper, we have simply assumed that both Σ and Des are given. 本稿では, Σ と Des の両方が与えられると仮定した。 0.75
Future work, however, might explore the use of machine learning to learn probabilistic models of state evolution. しかし、将来の研究は、状態進化の確率的モデルを学ぶための機械学習の利用を探求するかもしれない。
訳抜け防止モード: しかし将来の研究は、機械学習の利用を探求するかもしれない 状態進化の確率モデルを学びます
0.80
Also hybrid techniques (model-based and data-driven) are conceivable which should take into account inferring the human’s intentions as this is an indicator of what the human will do next and thereby how the state will change. また、ハイブリッド技術(モデルベースとデータ駆動)は、人間が次に何をするか、そしてどのように状態が変わるかを示す指標であるとして、人間の意図を推測する上で考慮すべきである。 0.71
When eliciting and reasoning on preferences, ideally, the proactive agent should take into account the dynamic change of preferences, weigh personal against common, long-term against short-term preferences, and reason on uncertainty of what is desirable. 選好を導き、推論する場合、理想的には、プロアクティブエージェントは、選好の動的な変化、共通の選好に対する個人的評価、短期選好に対する長期的評価、望ましいものの不確実性に関する理由を考慮すべきである。
訳抜け防止モード: 選好を解明し推論する場合、理想的には、プロアクティブエージェントは選好の動的変化を考慮すべきである。 一般、長期、短期の選好に対して個人を重くする。 望ましいものに対する不確実性の理由です
0.60
Finally, the example in Section 4 has been run with console inputs and outputs. 最後に、セクション4の例はコンソールの入力と出力で実行される。 0.82
Given the promising results, the next step will be to connect our system to a real Pepper robot ((Pandey and Gelin, 2018)) and conduct a user study in a real domestic environment. 有望な結果が得られれば、次のステップは、私たちのシステムを本物のPepperロボット(Pandey and Gelin, 2018)に接続し、実際の家庭環境でユーザー研究を行うことだ。 0.76
Since our system is based on general models, we also plan to test it on a variety of physical robot systems or interactive agents in diverse domains. 我々のシステムは一般的なモデルに基づいているので、様々な領域の様々な物理ロボットシステムや対話型エージェントでテストする予定です。 0.83
18 18 0.43
英語(論文から抽出)日本語訳スコア
Buyukgoz et al Buyukgoz et al 0.43
AUTHOR CONTRIBUTIONS SB and JG contributed equally to the concept, formalization, implementation and experimentation reported in this paper. AUTHOR CONTRIBUTIONS SBとJGは、この論文で報告された概念、形式化、実装、実験に等しく寄与した。 0.58
MC and AS supervised all aspects above. MCとASは上記の全ての側面を監督した。 0.53
All four authors contributed equally the planning, writing and revision of the paper. 4人の著者全員が、論文の計画、執筆、改訂に等しく貢献した。 0.63
ACKNOWLEDGMENTS This project has received funding from European Union’s Horizon 2020 ICT-48 research and innovation actions under grant agreement No 952026 (HumanE-AI-Net) and from the European Union’s Horizon 2020 research and innovation programme under grant agreement No 765955 (ANIMATAS). ACKNOWLEDGMENTS このプロジェクトは、承認合意の下の欧州連合のHorizon 2020 ICT-48研究とイノベーションのアクション No 952026(HumanE-AI-Net )および認可合意の下の欧州連合のHorizon 2020研究とイノベーションプログラム No 765955(ANIMATAS)から資金を得ている。 0.77
REFERENCES Aha, D. W. (2018). 参考 Aha, D. W. (2018)。 0.71
Goal reasoning: Foundations, emerging applications, and prospects. 目標推論: 基礎、新興アプリケーション、そして展望。 0.64
AI Magazine 39, 3–24 AIマガジン39。 3–24 0.47
Baraglia, J., Cakmak, M., Nagai, Y., Rao, R. P., and Asada, M. (2017). Baraglia, J., Cakmak, M., Nagai, Y., Rao, R. P., Asada, M. (2017)。 0.85
Efficient human-robot collaboration: 効率的な人間とロボットのコラボレーション 0.53
when should a robot take initiative? ロボットはいつイニシアティブを取るべきか? 0.76
The International Journal of Robotics Research 36, 563–579 International Journal of Robotics Research 36, 563-579 0.46
Beetz, M., Chatila, R., Hertzberg, J., and Pecora, F. (2016). Beetz, M., Chatila, R., Hertzberg, J., and Pecora, F. (2016)。 0.87
AI Reasoning Methods for Robotics. AI Reasoning Methods for Robotics(英語) 0.79
In Handbook of Robotics (Springer). 院 Handbook of Robotics (Springer) の略。 0.60
329–356 Bratman, M. E. (1989). 329–356 Bratman, M. E. (1989)。 0.61
Intention and personal policies. 意図と個人的な政策。 0.35
Philosophical Perspectives 3, 443–469 Bremner, P., Dennis, L. A., Fisher, M., and Winfield, A. F. (2019). 哲学的視点 3, 443–469 Bremner, P., Dennis, L. A., Fisher, M., and Winfield, A. F. (2019)。 0.94
On proactive, transparent, and verifiable 能動的で透明で検証可能な 0.66
ethical reasoning for robots. ロボットの倫理的理由です 0.74
Proc of the IEEE 107, 541–561 IEEE 107, 541–561 の証明 0.82
Doush, I. A., Damaj, I., Al-Betar, M. A., Awadallah, M. A., Ra’ed, M., Alchalabi, A. E., et al (2020). Doush, I. A., Damaj, I., Al-Betar, M. A., Awadallah, M. A., Ra’ed, M., Alchalabi, A. E., et al (2020)。 0.94
A survey on accessible context-aware systems. アクセス可能なコンテキストアウェアシステムに関する調査 0.67
In S Paiva (Ed) Technological Trends in Improved Mobility of the Visually Impaired (Springer). s paiva (ed) における視覚障害者の移動性向上技術の動向 0.54
29–63 Dreyfus, H. (2007). 29–63 Dreyfus, H. (2007)。 0.60
Detachment, involvement, and rationality: are we essentially rational animals? 分断、関与、合理性:我々は本質的に合理性動物か? 0.73
Human Affairs 17, 101–109. 人間 定員17名、101-109名。 0.54
doi:doi:10.2478/v100 23-007-0010-0 doi:doi:10.2478/v100 23-007-0010-0 0.14
Farrell, R. and Ware, S. G. (2020). Farrell, R. and Ware, S. G. (2020)。 0.46
Narrative planning for belief and intention recognition. 信念と意図の認識のための物語計画。 0.64
Proceedings of the 16th AAAI Conference on Artificial Intelligence and Interactive Digital Entertainment, AIIDE 2020 , 52–58 第16回AIとインタラクティブデジタルエンタテインメント国際会議(AIIDE 2020, 52-58)の開催報告 0.76
Ghallab, M., Knoblock, C., Wilkins, D., Barrett, A., Christianson, D., Friedman, M., et al (1998). Ghallab, M., Knoblock, C., Wilkins, D., Barrett, A., Christianson, D., Friedman, M., et al (1998)。 0.83
Pddl - the planning domain definition language. pddl所属。 計画ドメイン定義言語。 0.57
AIPS-98 Planning Competition AIPS-98計画コンペティション 0.69
Ghallab, M., Nau, D., and Traverso, P. (2016). Ghallab, M., Nau, D., and Traverso, P. (2016)。 0.88
Automated Planning and Acting (Cambridge University 自動計画・行動(ケンブリッジ大学) 0.77
Press) Grant, A. M. and Ashford, S. J. (2008). プレス) Grant, A. M. and Ashford, S. J. (2008)。 0.61
The dynamics of proactivity at work. 仕事における活動のダイナミクス。 0.75
Research in Organizational Behavior 28, 3–34 組織研究 行動28、3-34 0.30
Grosinger, J., Pecora, F., and Saffiotti, A. (2019). Grosinger, J., Pecora, F., Saffiotti, A. (2019)。 0.76
Robots that maintain equilibrium: Proactivity by reasoning about user intentions and preferences. 均衡を維持するロボット: ユーザの意図や好みを推論するプロアクティビティ。 0.82
Pattern Recognition Letters 118, 85–93. パターン認識文字 118, 85-93。 0.80
doi:https: //doi.org/10.1016/j. patrec.2018.05.014. doi:https: //doi.org/10.1016/j. patrec.2018.05.014 0.17
Cooperative and Social Robots: Understanding Human Activities and Intentions 協調ロボットと社会ロボット : 人間の行動と意図を理解する 0.70
Han, T. A. and Pereira, L. M. (2013). Han, T. A. and Pereira, L. M. (2013)。 0.88
State-of-the-art of intention recognition and its use in decision 意図認識の現状と意思決定への応用 0.73
making. AI Communications 26, 237–246. 作る。 AI通信26、237-246。 0.45
doi:10.3233/AIC-1305 59 doi:10.3233/aic-1305 59 0.11
Harman, H. and Simoens, P. (2020). Harman, H. and Simoens, P. (2020)。 0.46
Action graphs for proactive robot assistance in smart environments. スマート環境におけるロボット支援のための行動グラフ 0.79
Journal of Ambient Intelligence and Smart Environments 12, 1–21 Journal of Ambient Intelligence and Smart Environments 12, 1–21 0.50
Liu, T., Lyu, E., Wang, J., and Meng, M. Q. Liu, T., Lyu, E., Wang, J., Meng, M. Q。 0.81
-H. (2021). -h。 (2021). 0.58
Unified intention inference and learning for 統一的意図推論と学習 0.68
human-robot cooperative assembly. 人間ロボット協同組合。 0.76
IEEE Transactions on Automation Science and Engineering IEEE Transactions on Automation Science and Engineering 0.42
Frontiers 19 辺境 19 0.43
英語(論文から抽出)日本語訳スコア
Buyukgoz et al Buyukgoz et al 0.43
Martins, G. S., Al Tair, H., Santos, L., and Dias, J. (2019). Martins, G. S., Al Tair, H., Santos, L., and Dias, J. (2019)。 0.87
αpomdp: Pomdp-based user-adaptive decisionmaking for social robots. αpomdp: ソーシャルロボットのためのpomdpベースのユーザ適応意思決定。 0.59
Pattern Recognition Letters 118, 94–103. パターン認識文字118,94–103。 0.79
doi:https://doi.org/ 10.1016/j.patrec. doi:https://doi.org/ 10.1016/j.patrec 0.22
2018.03.011. 2018.03.011. 0.25
Cooperative and Social Robots: Understanding Human Activities and Intentions 協調ロボットと社会ロボット : 人間の行動と意図を理解する 0.70
Pandey, A. K. and Gelin, R. (2018). Pandey, A. K. and Gelin, R. (2018)。 0.47
A Mass-Produced Sociable Humanoid Robot: Pepper: The First Machine of Its Kind. 大量生産可能な人間型ロボット「Pepper: The First Machine of Its Kind」 0.74
IEEE Robotics & Automation Magazine 25, 40–48. IEEE Robotics & Automation Magazine 25 40-48。 0.43
doi:10.1109/MRA.2018 . 10.1109/MRA.2018 0.15
2833157 Peng, Z., Kwon, Y., Lu, J., Wu, Z., and Ma, X. (2019). 2833157 Peng, Z., Kwon, Y., Lu, J., Wu, Z., Ma, X. (2019)。 0.61
Design and evaluation of service robot’s proactivity in decision-making support process. 意思決定支援プロセスにおけるサービスロボットの能動性の設計と評価 0.84
In Proc of the CHI Conference on Human Factors in Computing Systems. CHI Conference on Human Factors in Computing Systems に参加して 0.68
1–13 Persiani, M. (2020). 1–13 ペルシア語:M.(2020年)。 0.46
Computational models for intent recognition in robotic systems. ロボットシステムにおける意図認識のための計算モデル 0.78
Ph.D. thesis, Department of Computing Science, Ume˚a University Ph.D.論文。 梅山大学 計算機科学科 0.38
Premack, D. and Woodruff, G. (1978). Premack, D. and Woodruff, G. (1978)。 0.48
Does the chimpanzee have a theory of mind? チンパンジーには心の理論がありますか。 0.67
Behavioral and Brain Sciences 1, 515–526. 行動と脳 学名:515-526。 0.37
doi:10.1017/S0140525 X00076512 doi:10.1017/s0140525 x00076512 0.11
Ram´ırez, M. and Geffner, H. (2009). Ram ́rez, M. and Geffner, H. (2009)。 0.41
Plan recognition as planning. 計画としての計画認識。 0.66
In Proceedings of the 21st International Joint Conference on Artificial Intelligence (San Francisco, CA, USA: Morgan Kaufmann Publishers Inc.), IJCAI’09, 1778–1783 第21回人工知能国際会議(サンフランシスコ, アメリカ合衆国: Morgan Kaufmann Publishers Inc., IJCAI'09, 1778-1783)の開催報告 0.71
Ram´ırez, M. and Geffner, H. (2010). Ram ́rez, M. and Geffner, H. (2010)。 0.41
Probabilistic plan recognition using off-the-shelf classical planners. 既成古典プランナーを用いた確率的計画認識 0.76
In Proceedings of the Twenty-Fourth AAAI Conference on Artificial Intelligence (AAAI Press), AAAI’10, 1121–1126 第20回人工知能学会(AAI Press, AAAI'10, 1121-1126)に参加して 0.65
Rao, A. S., Georgeff, M. P., et al (1995). Rao, A. S., Georgeff, M. P., et al (1995)。 0.91
Bdi agents: From theory to practice. Bdiエージェント: 理論から実践まで。 0.74
In Icmas. vol. icmas所属。 vol.1。 0.49
95, 312–319 Sirithunge, C., Jayasekara, A. G. B. P., and Chandima, D. P. (2019). 95, 312-319 Sirithunge, C., Jayasekara, A. G. B. P., and Chandima, D. P. (2019)。 0.44
Proactive robots with the perception 知覚を有するプロアクティブロボット 0.80
of nonverbal human behavior: A review. 非言語的人間の行動:レビュー。 0.71
IEEE Access 7, 77308–77327 IEEE Access 7, 77308–77327 0.44
Sukthankar, G., Geib, C., Bui, H., Pynadath, D., and Goldman, R. (2014). Sukthankar, G., Geib, C., Bui, H., Pynadath, D., and Goldman, R. (2014)。 0.44
Plan, Activity, and Intent Recognition: Theory and Practice (Elsevier Science) 計画、活動、意図 認識:理論と実践(エルセビエ科学) 0.68
Umbrico, A., Cesta, A., Cortellessa, G., and Orlandini, A. (2020a). Umbrico, A., Cesta, A., Cortellessa, G., Orlandini, A. (2020a)。 0.82
A holistic approach to behavior 行動に対する総合的なアプローチ 0.72
adaptation for socially assistive robots. 社会支援ロボットへの適応です 0.68
International Journal of Social Robotics , 1–21 international journal of social robotics, 1-21(英語) 0.57
Umbrico, A., Cortellessa, G., Orlandini, A., and Cesta, A. (2020b). Umbrico, A., Cortellessa, G., Orlandini, A., Cesta, A. (2020b)。 0.82
Toward intelligent continuous assistance. 知的連続へ向けて 助けだ 0.59
JAIHC , 1–15 JAIHC 1-15 0.39
Van-Horenbeke, F. A. and Peer, A. (2021). Van-Horenbeke, F. A. and Peer, A. (2021)。 0.87
Activity, plan, and goal recognition: A review. 活動、計画、目標認識:レビュー。 0.53
Frontiers in Robotics and AI 8. 辺境 ロボティクスとai8。 0.47
doi:10.3389/frobt.20 21.643010 doi:10.3389/frobt.20 21.643010 0.10
Wang, J., Chen, Y., Hao, S., Peng, X., and Hu, L. (2019). Wang, J., Chen, Y., Hao, S., Peng, X., Hu, L. (2019)。 0.83
Deep learning for sensor-based activity センサを用いた深層学習 0.79
recognition: A survey. Pattern Recognition Letters 119, 3 – 11 認識: 調査。 パターン認識文字 119, 3 – 11 0.71
Warneken, F. and Tomasello, M. (2006). Warneken, F. and Tomasello, M. (2006)。 0.96
Altruistic helping in human infants and young chimpanzees. ヒトの幼児と若いチンパンジーの利他的支援 0.65
Science 311, 1301–1303 科学 311, 1301-1303 0.74
Zhang, Y., Narayanan, V., Chakraborti, T., and Kambhampati, S. (2015). Zhang, Y., Narayanan, V., Chakraborti, T., and Kambhampati, S. (2015)。 0.86
A human factors analysis of proactive support in human-robot teaming. 人間-ロボットチームにおけるプロアクティブサポートのヒューマンファクタ解析 0.75
IEEE International Conference on Intelligent Robots and Systems December, 3586–3593. IEEE International Conference on Intelligent Robots and Systems, 3586–3593 0.39
doi:10.1109/IROS.201 5.7353878 Doi:10.1109/IROS.201 5.7353878 0.09
20 20 0.42
                                         ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。