論文の概要: Explainable Agents Through Social Cues: A Review
- arxiv url: http://arxiv.org/abs/2003.05251v3
- Date: Thu, 18 Feb 2021 17:53:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 15:51:05.691250
- Title: Explainable Agents Through Social Cues: A Review
- Title(参考訳): 社会的手がかりによる説明可能なエージェント:レビュー
- Authors: Sebastian Wallkotter, Silvia Tulli, Ginevra Castellano, Ana Paiva,
Mohamed Chetouani
- Abstract要約: 過去3年間、どのように体化剤を説明できるかという問題は、関心の高まりを経験してきた。
コミュニティによるさらなる調査を必要とする領域を強調するオープンな質問と課題のリストを提示する。
- 参考スコア(独自算出の注目度): 9.132195909109731
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The issue of how to make embodied agents explainable has experienced a surge
of interest over the last three years, and, there are many terms that refer to
this concept, e.g., transparency or legibility. One reason for this high
variance in terminology is the unique array of social cues that embodied agents
can access in contrast to that accessed by non-embodied agents. Another reason
is that different authors use these terms in different ways. Hence, we review
the existing literature on explainability and organize it by (1) providing an
overview of existing definitions, (2) showing how explainability is implemented
and how it exploits different social cues, and (3) showing how the impact of
explainability is measured. Additionally, we present a list of open questions
and challenges that highlight areas that require further investigation by the
community. This provides the interested reader with an overview of the current
state-of-the-art.
- Abstract(参考訳): 具体化エージェントを説明可能なものにする方法という問題は、過去3年間で関心が高まり、透明性や正当性など、この概念を参照する用語が数多く存在する。
用語学におけるこの高いばらつきの理由の1つは、エンボディドエージェントが非エンボディドエージェントによってアクセスされるものとは対照的にアクセス可能な、ユニークな社会的手がかりの配列である。
別の理由は、異なる著者が異なる方法でこれらの用語を使用するからである。
そこで,既存の説明可能性に関する文献をレビューし,(1)既存の定義の概要,(2)説明可能性がどのように実装され,どのように異なる社会的手段を利用するか,(3)説明可能性の影響がどのように測定されるかを示す。
さらに,コミュニティによるさらなる調査が必要な領域に注目した,オープン質問と課題の一覧も提示する。
これは、興味のある読者に現在の最先端の概要を提供する。
関連論文リスト
- On the Relationship Between Interpretability and Explainability in Machine Learning [2.828173677501078]
解釈可能性と説明可能性は、機械学習の分野でますます注目を集めている。
両者は予測者とその決定プロセスに関する情報を提供するため、単一のエンドに対して2つの独立した手段と見なされることが多い。
複雑なブラックボックスモデル用に設計された説明可能性技術、あるいは多くの説明可能性ツールを無視した解釈可能なアプローチ。
論文 参考訳(メタデータ) (2023-11-20T02:31:08Z) - Beyond Model Interpretability: On the Faithfulness and Adversarial
Robustness of Contrastive Textual Explanations [2.543865489517869]
本研究は、説明の忠実さに触発された新たな評価手法の基盤を築き、テキストの反事実を動機づけるものである。
感情分析データを用いた実験では, 両モデルとも, 対物関係の関連性は明らかでないことがわかった。
論文 参考訳(メタデータ) (2022-10-17T09:50:02Z) - How (Not) To Evaluate Explanation Quality [29.40729766120284]
タスクやドメインにまたがって適用される説明品質の望ましい特性を定式化する。
本稿では,今日の説明品質評価を制限する障害を克服するための実用的なガイドラインを提案する。
論文 参考訳(メタデータ) (2022-10-13T16:06:59Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Nested Counterfactual Identification from Arbitrary Surrogate
Experiments [95.48089725859298]
観測と実験の任意の組み合わせからネスト反事実の同定について検討した。
具体的には、任意のネストされた反事実を非ネストされたものへ写像できる反ファクト的非ネスト定理(英語版)(CUT)を証明する。
論文 参考訳(メタデータ) (2021-07-07T12:51:04Z) - Prompting Contrastive Explanations for Commonsense Reasoning Tasks [74.7346558082693]
大規模事前学習言語モデル(PLM)は、常識推論タスクにおいて、ほぼ人間に近い性能を達成することができる。
人間の解釈可能な証拠を生成するために、同じモデルを使う方法を示す。
論文 参考訳(メタデータ) (2021-06-12T17:06:13Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - COSMO: Conditional SEQ2SEQ-based Mixture Model for Zero-Shot Commonsense
Question Answering [50.65816570279115]
社会的文脈の暗黙的な原因と影響の特定は、機械が常識的推論を実行できるようにする駆動能力である。
この領域における現在のアプローチには、目に見えない状況に直面して常識推論を行う能力がない。
本稿では,動的かつ多様なコンテンツ生成機能を備えた条件付きSEQ2SEQベースの混合モデル(COSMO)を提案する。
論文 参考訳(メタデータ) (2020-11-02T07:08:19Z) - The Need for Standardized Explainability [0.4588028371034407]
本稿では,説明可能性領域の現状を考察し,説明可能性と解釈可能性に関する新たな定義を提供する。
本稿では、説明可能性に関する文献の概要と、すでに実装済みの既存手法について概説する。
我々は、様々な説明可能性の手法を仮に分類し、将来の研究への扉を開く。
論文 参考訳(メタデータ) (2020-10-20T08:40:20Z) - Aligning Faithful Interpretations with their Social Attribution [58.13152510843004]
モデル解釈が忠実であることの要件はあいまいで不完全であることに気付く。
因果的帰属(因果的帰属)と解釈(社会的帰属)に対する人間の行動の帰属(因果的帰属)の相違が問題であると認識する。
論文 参考訳(メタデータ) (2020-06-01T16:45:38Z) - One Explanation Does Not Fit All: The Promise of Interactive
Explanations for Machine Learning Transparency [21.58324172085553]
ブラックボックスシステムの透明性向上のための対話型機械学習の約束について論じる。
本稿では, 条件文を対話的に調整することで, 対実的説明をパーソナライズする方法を示す。
我々は、説明そのものとその内容の調整がより重要であると論じている。
論文 参考訳(メタデータ) (2020-01-27T13:10:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。