論文の概要: Generative AI-based closed-loop fMRI system
- arxiv url: http://arxiv.org/abs/2401.16742v1
- Date: Tue, 30 Jan 2024 04:40:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-31 16:05:24.130329
- Title: Generative AI-based closed-loop fMRI system
- Title(参考訳): 生成AIに基づく閉ループfMRIシステム
- Authors: Mikihiro Kasahara, Taiki Oka, Vincent Taschereau-Dumouchel, Mitsuo
Kawato, Hiroki Takakura, Aurelio Cortese
- Abstract要約: DecNefGANは、生成的敵系と神経強化モデルを組み合わせた新しいフレームワークである。
これは、人間の脳がどのように反応し、生成的AIの潜在的な影響に対処するかを解明するのに役立つ。
- 参考スコア(独自算出の注目度): 0.41942958779358674
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While generative AI is now widespread and useful in society, there are
potential risks of misuse, e.g., unconsciously influencing cognitive processes
or decision-making. Although this causes a security problem in the cognitive
domain, there has been no research about neural and computational mechanisms
counteracting the impact of malicious generative AI in humans. We propose
DecNefGAN, a novel framework that combines a generative adversarial system and
a neural reinforcement model. More specifically, DecNefGAN bridges human and
generative AI in a closed-loop system, with the AI creating stimuli that induce
specific mental states, thus exerting external control over neural activity.
The objective of the human is the opposite, to compete and reach an orthogonal
mental state. This framework can contribute to elucidating how the human brain
responds to and counteracts the potential influence of generative AI.
- Abstract(参考訳): 現在、生成的AIは社会において広く有用であるが、例えば認知過程や意思決定に無意識に影響を及ぼす誤用の危険性がある。
これは認知領域のセキュリティ問題を引き起こすが、人間における悪意ある生成AIの影響に対抗する神経および計算機構に関する研究は行われていない。
本稿では, 生成的対立システムとニューラル強化モデルを組み合わせた新しいフレームワークであるDecNefGANを提案する。
より具体的には、DecNefGANは人間と生成するAIをクローズドループシステムにブリッジし、AIは特定の精神状態を引き起こす刺激を発生させ、神経活動に対する外部制御を実行する。
人間の目的は逆であり、正統的な精神状態と競い、到達することである。
このフレームワークは、人間の脳がどのように反応し、生成的AIの潜在的な影響に対処するかを解明するのに役立つ。
関連論文リスト
- NeuroAI for AI Safety [1.9573653858862774]
一般知能を持つ唯一のエージェントは人間である。
神経科学は、現在未調査で未使用の技術的AI安全性の重要な鍵を握るかもしれない。
我々は神経科学に触発されたAI安全性へのいくつかの道のりを強調し、批判的に評価する。
論文 参考訳(メタデータ) (2024-11-27T17:18:51Z) - Aligning Generalisation Between Humans and Machines [74.120848518198]
近年のAIの進歩は、科学的発見と意思決定支援において人間を支援できる技術をもたらしたが、民主主義と個人を妨害する可能性がある。
AIの責任ある使用は、ますます人間とAIのチームの必要性を示している。
これらの相互作用の重要かつしばしば見落とされがちな側面は、人間と機械が一般化する異なる方法である。
論文 参考訳(メタデータ) (2024-11-23T18:36:07Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - "I Am the One and Only, Your Cyber BFF": Understanding the Impact of GenAI Requires Understanding the Impact of Anthropomorphic AI [55.99010491370177]
我々は、人為的AIの社会的影響をマッピングしない限り、生成AIの社会的影響を徹底的にマッピングすることはできないと論じる。
人為的AIシステムは、人間のように知覚されるアウトプットを生成する傾向が強まっている。
論文 参考訳(メタデータ) (2024-10-11T04:57:41Z) - Is artificial consciousness achievable? Lessons from the human brain [0.0]
進化の観点から,人工意識の発達に関する問題を分析する。
我々は、人間の脳の進化と、その意識との関係を参照モデルとして捉えている。
我々は,AIの認知処理における共通点と,人間の意識経験との違いを明確にすることを提案する。
論文 参考訳(メタデータ) (2024-04-18T12:59:44Z) - Advancing Explainable AI Toward Human-Like Intelligence: Forging the
Path to Artificial Brain [0.7770029179741429]
説明可能なAI(XAI)における人工知能(AI)と神経科学の交差は、複雑な意思決定プロセスにおける透明性と解釈可能性を高めるために重要である。
本稿では,機能ベースから人間中心のアプローチまで,XAI方法論の進化について考察する。
生成モデルにおける説明可能性の達成、責任あるAIプラクティスの確保、倫理的意味への対処に関する課題について論じる。
論文 参考訳(メタデータ) (2024-02-07T14:09:11Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - A Neuro-mimetic Realization of the Common Model of Cognition via Hebbian
Learning and Free Energy Minimization [55.11642177631929]
大規模なニューラル生成モデルは、意味的に豊富なテキストのパスを合成したり、複雑な画像を生成することができる。
我々はコモン・モデル・オブ・コグニティブ・ニューラル・ジェネレーティブ・システムについて論じる。
論文 参考訳(メタデータ) (2023-10-14T23:28:48Z) - Reflective Hybrid Intelligence for Meaningful Human Control in
Decision-Support Systems [4.1454448964078585]
本稿では,AIシステムに対する有意義な人間制御のための自己表現型AIシステムの概念を紹介する。
心理学と哲学の知識を形式的推論手法や機械学習アプローチと統合する枠組みを提案する。
我々は、自己反射型AIシステムは、自己反射型ハイブリッドシステム(人間+AI)に繋がると主張している。
論文 参考訳(メタデータ) (2023-07-12T13:32:24Z) - BIASeD: Bringing Irrationality into Automated System Design [12.754146668390828]
我々は、人間と機械のコラボレーションの未来は、人間の認知バイアスをモデル化し、理解し、おそらく複製するAIシステムの開発を必要とすると主張している。
我々は、AIシステムの観点から既存の認知バイアスを分類し、3つの幅広い関心領域を特定し、私たちのバイアスをよりよく理解するAIシステムの設計のための研究の方向性を概説する。
論文 参考訳(メタデータ) (2022-10-01T02:52:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。