論文の概要: Dr. Watson type Artificial Intellect (AI) Systems
- arxiv url: http://arxiv.org/abs/2106.13322v1
- Date: Wed, 23 Jun 2021 03:59:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-29 06:15:42.949747
- Title: Dr. Watson type Artificial Intellect (AI) Systems
- Title(参考訳): ワトソン博士型人工知性(ai)システム
- Authors: Saveli Goldberg (1), Stanislav Belyaev (2), Vladimir Sluchak ((1) MGH
Radiation Oncology Department, (2) Eastern New Mexico Medical Center)
- Abstract要約: 本稿では,ソリューションを直接提供するのではなく,それを指して,ユーザに対して質問やメッセージの調整を円滑に行う,新たなタイプのAIシステムを提案する。
AIの人間によるコラボレーションのモデルは、ホームズ氏とワトソン博士のインタラクションの古典的な文学的な例から、コナン・ドイルの物語から導出することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The article proposes a new type of AI system that does not give solutions
directly but rather points toward it, friendly prompting the user with
questions and adjusting messages. Models of AI human collaboration can be
deduced from the classic literary example of interaction between Mr. Holmes and
Dr. Watson from the stories by Conan Doyle, where the highly qualified expert
Mr. Holmes answers questions posed by Dr. Watson. Here Mr. Holmes, with his
rule-based calculations, logic, and memory management, apparently plays the
role of an AI system, and Dr. Watson is the user. Looking into the same
Holmes-Watson interaction, we find and promote another model in which the AI
behaves like Dr. Watson, who, by asking questions and acting in a particular
way, helps Holmes (the AI user) make the right decisions. We call the systems
based on this principle "Dr. Watson-type systems." The article describes the
properties of such systems and introduces two particular: Patient Management
System for intensive care physicians and Data Error Prevention System.
- Abstract(参考訳): この記事では、ソリューションを直接提供せず、むしろその方向を指して、ユーザーに質問やメッセージの調整を促す新しいタイプのAIシステムを提案する。
aiヒューマンコラボレーションのモデルは、コナン・ドイルの物語からホームズ氏とワトソン博士の相互作用の古典的な文学的例から導き出され、高度に資格のあるホームズ氏はワトソン博士の問いに答える。
ここでMr. Holmesは、ルールベースの計算、ロジック、メモリ管理と共に、明らかにAIシステムの役割を担っており、Watson博士がユーザである。
同じホームズとワトソンのインタラクションを調べて、Watson博士のようなAIが行動する別のモデルを見つけ、促進します。
この原理に基づいて、これらのシステムを「ワトソン博士型システム」と呼ぶ。
本稿では,これらのシステムの特徴について述べ,集中治療医のための患者管理システムとデータエラー防止システムについて紹介する。
関連論文リスト
- Formalization of Dialogue in the Decision Support System of Dr. Watson Type [0.0]
この論文は、ワトソン博士型のAIシステムにおける親和性対話の理論をさらに発展させ、定式化する。
このタイプのAIの主な原理は、ユーザ入力とシステムで収集されたデータの分析に基づく質問を用いて、ユーザーを友好的な方法でソリューションに向かって誘導することである。
論文 参考訳(メタデータ) (2024-07-27T01:56:33Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - Medical Question Understanding and Answering with Knowledge Grounding
and Semantic Self-Supervision [53.692793122749414]
本稿では,知識基盤とセマンティック・セルフスーパービジョンを備えた医療質問理解・回答システムについて紹介する。
我々のシステムは、まず、教師付き要約損失を用いて、長い医学的、ユーザによる質問を要約するパイプラインである。
システムはまず、信頼された医療知識ベースから要約されたユーザ質問とFAQとをマッチングし、対応する回答文書から一定の数の関連文を検索する。
論文 参考訳(メタデータ) (2022-09-30T08:20:32Z) - Process Knowledge-Infused AI: Towards User-level Explainability,
Interpretability, and Safety [25.027558410886407]
パーソナライズされた健康や食品レコメンデーションのための自己管理のような、高価値でセンシティブな、あるいは安全に重要なアプリケーションでは、その採用はありそうにない。
AIシステムは専門家が設定したガイドラインや明確なプロセスに従う必要がある。
AIシステムのユーザは、ユーザが理解可能な説明をする必要がある。
論文 参考訳(メタデータ) (2022-06-09T14:09:37Z) - Rethinking Explainability as a Dialogue: A Practitioner's Perspective [57.87089539718344]
医師、医療専門家、政策立案者に対して、説明を求めるニーズと欲求について尋ねる。
本研究は, 自然言語対話の形での対話的説明を, 意思決定者が強く好むことを示唆する。
これらのニーズを考慮して、インタラクティブな説明を設計する際に、研究者が従うべき5つの原則を概説する。
論文 参考訳(メタデータ) (2022-02-03T22:17:21Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - The human-AI relationship in decision-making: AI explanation to support
people on justifying their decisions [4.169915659794568]
人々は、AIがどのように機能するか、そしてそのシステムとの関係を構築するために、その成果をもっと意識する必要があります。
意思決定のシナリオでは、人々はAIがどのように機能するか、そしてそのシステムとの関係を構築する結果についてもっと意識する必要があります。
論文 参考訳(メタデータ) (2021-02-10T14:28:34Z) - Argument Schemes and Dialogue for Explainable Planning [3.2741749231824904]
本論文では,AI計画の領域で説明を行うための議論スキームに基づくアプローチを提案する。
計画とその鍵となる要素を説明するための新たな議論スキームを提案する。
また、対話型方言説明のための議論スキームとクリティカルな質問を用いた新しい対話システムも提示する。
論文 参考訳(メタデータ) (2021-01-07T17:43:12Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - How to Answer Why -- Evaluating the Explanations of AI Through Mental
Model Analysis [0.0]
人間中心のAI研究の鍵となる疑問は、ユーザーのメンタルモデルをどのように有効に調査するかである。
実験的な研究手法としてメンタルモデルが適切かどうかを評価する。
本稿では、人間中心の方法で説明可能なAIアプローチを評価するための模範的手法を提案する。
論文 参考訳(メタデータ) (2020-01-11T17:15:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。