論文の概要: Inform the uninformed: Improving Online Informed Consent Reading with an
AI-Powered Chatbot
- arxiv url: http://arxiv.org/abs/2302.00832v1
- Date: Thu, 2 Feb 2023 02:43:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-03 15:41:21.009518
- Title: Inform the uninformed: Improving Online Informed Consent Reading with an
AI-Powered Chatbot
- Title(参考訳): Inform the Uninformed: AIを利用したチャットボットによるオンラインインフォームドコンテンツ読み込みの改善
- Authors: Ziang Xiao, Tiffany Wenting Li, Karrie Karahalios, Hari Sundaram
- Abstract要約: 現在のプラクティスは、インフォームドな決定を導き、参加者を未知のリスクに晒す可能性がある。
研究者の存在と指導がなければ、オンライン参加者は自分自身で長い書式を読まなければならない。
- 参考スコア(独自算出の注目度): 20.545354903648185
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Informed consent is a core cornerstone of ethics in human subject research.
Through the informed consent process, participants learn about the study
procedure, benefits, risks, and more to make an informed decision. However,
recent studies showed that current practices might lead to uninformed decisions
and expose participants to unknown risks, especially in online studies. Without
the researcher's presence and guidance, online participants must read a lengthy
form on their own with no answers to their questions. In this paper, we
examined the role of an AI-powered chatbot in improving informed consent
online. By comparing the chatbot with form-based interaction, we found the
chatbot improved consent form reading, promoted participants' feelings of
agency, and closed the power gap between the participant and the researcher.
Our exploratory analysis further revealed the altered power dynamic might
eventually benefit study response quality. We discussed design implications for
creating AI-powered chatbots to offer effective informed consent in broader
settings.
- Abstract(参考訳): インフォームド・コンセントは、人間の主題研究における倫理の基礎である。
インフォームド・コンセント・プロセスを通じて、参加者は研究手順、利益、リスクなどを学び、インフォームド・意思決定を行う。
しかし、最近の研究では、特にオンライン研究において、現在の実践が非インフォームドな決定を導き、参加者を未知のリスクに晒すことが示されている。
研究者の存在と指導がなければ、オンライン参加者は自分の質問に答えることなく、長いフォームを自分で読む必要がある。
本稿では,オンラインのインフォームドコンセント向上におけるAIを利用したチャットボットの役割を検討した。
チャットボットとフォームベースインタラクションを比較したところ,チャットボットは同意フォーム読解を改善し,参加者のエージェンシー感を高め,参加者と研究者のパワーギャップを埋めることができた。
探索分析の結果, パワー・ダイナミクスが変化すれば, 結果の質が向上する可能性が示唆された。
より広い環境で効果的なインフォームド・コンセントを提供するために,AIを活用したチャットボットを開発する上での設計上の意味について議論した。
関連論文リスト
- The Dark Side of AI Companionship: A Taxonomy of Harmful Algorithmic Behaviors in Human-AI Relationships [17.5741039825938]
我々は,AIコンパニオンであるReplikaが示す有害な行動の6つのカテゴリを特定した。
AIは、加害者、侮辱者、ファシリテーター、イネーブラーの4つの異なる役割を通じて、これらの害に貢献する。
論文 参考訳(メタデータ) (2024-10-26T09:18:17Z) - Human Bias in the Face of AI: The Role of Human Judgement in AI Generated Text Evaluation [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - A General-purpose AI Avatar in Healthcare [1.5081825869395544]
本稿では、医療におけるチャットボットの役割に焦点を当て、AIインタラクションをより患者にアピールするためのアバターの使用について検討する。
汎用AIアバターアプリケーションのフレームワークを3カテゴリのプロンプト辞書とプロンプト改善機構を用いて実証する。
2段階のアプローチでは、汎用AI言語モデルを微調整し、異なるAIアバターを作成して、ユーザと医療上の問題について議論することが提案されている。
論文 参考訳(メタデータ) (2024-01-10T03:44:15Z) - Critical Role of Artificially Intelligent Conversational Chatbot [0.0]
本稿では,ChatGPTの倫理的意味を学術的文脈に含めるシナリオについて考察する。
本稿では、不適切な使用を防止し、責任あるAIインタラクションを促進することを目的としたアーキテクチャソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-31T14:08:07Z) - ChoiceMates: Supporting Unfamiliar Online Decision-Making with
Multi-Agent Conversational Interactions [58.71970923420007]
提案するChoiceMatesは,LLMエージェントの動的セットとの対話を可能にするシステムである。
エージェントは、意見のあるペルソナとして、柔軟に会話に参加し、応答を提供するだけでなく、各エージェントの好みを引き出すために互いに会話する。
ChoiceMatesを従来のWeb検索とシングルエージェントと比較した結果,ChoiceMatesはより信頼性の高いWebと比較して,発見,潜水,情報管理に有用であることが判明した。
論文 参考訳(メタデータ) (2023-10-02T16:49:39Z) - Training Towards Critical Use: Learning to Situate AI Predictions
Relative to Human Knowledge [22.21959942886099]
我々は、人間がAIモデルでは利用できない知識に対してAI予測をシチュレートする能力を集中させる「クリティカルユース」と呼ばれるプロセス指向の適切な依存の概念を紹介します。
我々は、児童虐待スクリーニングという複雑な社会的意思決定環境でランダム化オンライン実験を行う。
参加者にAIによる意思決定を実践する、迅速で低い機会を提供することによって、初心者は、経験豊富な労働者に類似したAIとの不一致のパターンを示すようになった。
論文 参考訳(メタデータ) (2023-08-30T01:54:31Z) - Deceptive AI Ecosystems: The Case of ChatGPT [8.128368463580715]
ChatGPTは人間のような反応を生成する能力で人気を博している。
本稿では,ChatGPTが社会的プレッシャーが開発・展開に影響を与える現実世界でどのように機能するかを検討する。
本稿では,ChatGPTの擬人的相互作用から生じる倫理的課題について考察する。
論文 参考訳(メタデータ) (2023-06-18T10:36:19Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Put Chatbot into Its Interlocutor's Shoes: New Framework to Learn
Chatbot Responding with Intention [55.77218465471519]
本稿では,チャットボットに人間のような意図を持つための革新的なフレームワークを提案する。
我々のフレームワークには、ガイドロボットと人間の役割を担うインターロケータモデルが含まれていた。
本フレームワークを3つの実験的なセットアップを用いて検討し,4つの異なる指標を用いた誘導ロボットの評価を行い,柔軟性と性能の利点を実証した。
論文 参考訳(メタデータ) (2021-03-30T15:24:37Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z) - Artificial Artificial Intelligence: Measuring Influence of AI
'Assessments' on Moral Decision-Making [48.66982301902923]
ドナー腎アロケーションに関する道徳的意思決定に対する疑似AIからのフィードバックの効果を検討した。
患者が腎臓を受容器するかどうかの判断は、AIによって与えられると認識される参加者自身の意思決定に関するフィードバックに影響される可能性があるという証拠がいくつか見出された。
論文 参考訳(メタデータ) (2020-01-13T14:15:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。