論文の概要: Exploring outlooks towards generative AI-based assistive technologies
for people with Autism
- arxiv url: http://arxiv.org/abs/2305.09815v1
- Date: Tue, 16 May 2023 21:39:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-18 18:20:35.931444
- Title: Exploring outlooks towards generative AI-based assistive technologies
for people with Autism
- Title(参考訳): 自閉症者のための生成型AI支援技術への展望
- Authors: Deepak Giri, Erin Brady
- Abstract要約: 我々は、Nvdiaの新しいビデオ会議機能に関するRedditの会話を調査した。
自閉症患者に対する技術の有効性と適切性について議論した162の関連コメントが得られた。
我々は、生成型AIベースの補助ソリューションの開発が、人間とコンピュータの相互作用に影響を及ぼすことを示唆する。
- 参考スコア(独自算出の注目度): 2.5382095320488665
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The last few years have significantly increased global interest in generative
artificial intelligence. Deepfakes, which are synthetically created videos,
emerged as an application of generative artificial intelligence. Fake news and
pornographic content have been the two most prevalent negative use cases of
deepfakes in the digital ecosystem. Deepfakes have some advantageous
applications that experts in the subject have thought of in the areas of
filmmaking, teaching, etc. Research on the potential of deepfakes among people
with disabilities is, however, scarce or nonexistent. This workshop paper
explores the potential of deepfakes as an assistive technology. We examined
Reddit conversations regarding Nvdia's new videoconferencing feature which
allows participants to maintain eye contact during online meetings. Through
manual web scraping and qualitative coding, we found 162 relevant comments
discussing the relevance and appropriateness of the technology for people with
Autism. The themes identified from the qualitative codes indicate a number of
concerns for technology among the autistic community. We suggest that
developing generative AI-based assistive solutions will have ramifications for
human-computer interaction (HCI), and present open questions that should be
investigated further in this space.
- Abstract(参考訳): 過去数年間は、生成的人工知能に対する世界的な関心が著しく高まっている。
人工的に作られたビデオであるDeepfakesは、生成人工知能の応用として登場した。
フェイクニュースとポルノコンテンツは、デジタルエコシステムにおけるディープフェイクの最も一般的なマイナスのユースケースである。
ディープフェイクには、映画製作や教育などにおいて、この分野の専門家が考えた、いくつかの有利な応用がある。
しかし、障害者のディープフェイクの可能性についての研究は少ないか存在しない。
本ワークショップでは, ディープフェイクを補助技術としての可能性を探る。
我々は、Nvdiaの新しいビデオ会議機能に関するRedditの会話を調査した。
手作業によるwebスクレイピングと質的コーディングを通じて,自閉症者のテクノロジの関連性と適切性について議論する162の関連コメントが得られた。
定性的コードから特定されたテーマは、自閉症コミュニティの間でテクノロジーに対する多くの懸念を示している。
我々は、生成AIベースの補助ソリューションの開発は、人間とコンピュータの相互作用(HCI)に影響を及ぼすことを示唆し、この領域でさらに検討すべきオープンな疑問を提示する。
関連論文リスト
- Deepfake Media Forensics: State of the Art and Challenges Ahead [51.33414186878676]
AIが生成する合成メディア、別名Deepfakesは、エンターテイメントからサイバーセキュリティまで、多くの領域に影響を与えている。
ディープフェイク検出は、微妙な矛盾やアーティファクトを機械学習技術で識別することに焦点を当て、研究の不可欠な領域となっている。
本稿では,これらの課題に対処する主要なアルゴリズムについて,その利点,限界,今後の展望について検討する。
論文 参考訳(メタデータ) (2024-08-01T08:57:47Z) - Unmasking Illusions: Understanding Human Perception of Audiovisual Deepfakes [49.81915942821647]
本研究は,ディープフェイク映像を主観的研究により識別する人間の能力を評価することを目的とする。
人間の観察者を5つの最先端オーディオ視覚深度検出モデルと比較することにより,その知見を提示する。
同じ40の動画で評価すると、すべてのAIモデルは人間より優れていることが分かりました。
論文 参考訳(メタデータ) (2024-05-07T07:57:15Z) - Explainable Deepfake Video Detection using Convolutional Neural Network and CapsuleNet [0.0]
ディープフェイク技術は、実際の参加に関係なく、個人をデジタルメディアにシームレスに挿入する。
主要なディープフェイク生成アルゴリズムであるGANは、リアルなイメージやビデオを作成するために機械学習を使用している。
我々は、説明可能なAIを通じてモデルの意思決定プロセスを解明し、透明な人間とAIの関係を育むことを目指している。
論文 参考訳(メタデータ) (2024-04-19T12:21:27Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Amplifying Limitations, Harms and Risks of Large Language Models [1.0152838128195467]
この記事は、人工知能に関する誇大広告の急増に対抗すべく、小さなジェスチャーとして紹介する。
また、この分野の外部の人たちが、AI技術の限界についてより深く知るのに役立つかもしれない。
論文 参考訳(メタデータ) (2023-07-06T11:53:45Z) - Using Deep Learning to Detecting Deepfakes [0.0]
ディープフェイク(Deepfakes)とは、ある人物の顔を別のコンピュータが生成した顔に置き換えるビデオまたは画像である。
このオンライン脅威に対抗するために、研究者たちはディープフェイクを検出するモデルを開発した。
本研究では、ディープラーニングアルゴリズムを用いて、この略奪的な脅威に対処する様々なディープフェイク検出モデルについて検討する。
論文 参考訳(メタデータ) (2022-07-27T17:05:16Z) - Open-Eye: An Open Platform to Study Human Performance on Identifying
AI-Synthesized Faces [51.56417104929796]
我々は、AI合成顔検出の人的パフォーマンスを研究するために、Open-eyeと呼ばれるオンラインプラットフォームを開発した。
本稿では,オープンアイの設計とワークフローについて述べる。
論文 参考訳(メタデータ) (2022-05-13T14:30:59Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。