論文の概要: The Illusion of Friendship: Why Generative AI Demands Unprecedented Ethical Vigilance
- arxiv url: http://arxiv.org/abs/2601.08874v1
- Date: Mon, 12 Jan 2026 07:03:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.11345
- Title: The Illusion of Friendship: Why Generative AI Demands Unprecedented Ethical Vigilance
- Title(参考訳): フレンドシップのイライラ:なぜ生成AIが先例のない倫理的警戒を要求するのか
- Authors: Md Zahidul Islam,
- Abstract要約: GenAIシステムは、ドラフト、要約、意思決定支援にますます利用されている。
これらのシステムを有用なものにするのと同じ自然言語の流布もまた、ツールとコンパニオンの境界を曖昧にする可能性がある。
本稿では,友情の錯覚が理解可能であり,倫理的に危険である理由について,哲学的・倫理的議論を提起する。
- 参考スコア(独自算出の注目度): 2.3931689873603603
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: GenAI systems are increasingly used for drafting, summarisation, and decision support, offering substantial gains in productivity and reduced cognitive load. However, the same natural language fluency that makes these systems useful can also blur the boundary between tool and companion. This boundary confusion may encourage some users to experience GenAI as empathic, benevolent, and relationally persistent. Emerging reports suggest that some users may form emotionally significant attachments to conversational agents, in some cases with harmful consequences, including dependency and impaired judgment. This paper develops a philosophical and ethical argument for why the resulting illusion of friendship is both understandable and can be ethically risky. Drawing on classical accounts of friendship, the paper explains why users may understandably interpret sustained supportive interaction as friend like. It then advances a counterargument that despite relational appearances, GenAI lacks moral agency: consciousness, intention, and accountability and therefore does not qualify as a true friend. To demystify the illusion, the paper presents a mechanism level explanation of how transformer based GenAI generates responses often producing emotionally resonant language without inner states or commitments. Finally, the paper proposes a safeguard framework for safe and responsible GenAI use to reduce possible anthropomorphic cues generated by the GenAI systems. The central contribution is to demystify the illusion of friendship and explain the computational background so that we can shift the emotional attachment with GenAI towards necessary human responsibility and thereby understand how institutions, designers, and users can preserve GenAI's benefits while mitigating over reliance and emotional misattribution.
- Abstract(参考訳): GenAIシステムは、ドラフト作成、要約、意思決定支援にますます使われており、生産性と認知負荷の低減に大きく貢献している。
しかし、これらのシステムが有用になるのと同じ自然言語の流布は、ツールとコンパニオンの境界を曖昧にすることもできる。
このバウンダリの混乱は、GenAIを共感的、好意的、そしてリレーショナルな永続性として経験することを奨励するユーザーもいるかもしれない。
新興レポートでは、一部のユーザーは会話エージェントに感情的に重要なアタッチメントを形成する可能性があると示唆している。
本稿では,友情の錯覚が理解可能であり,倫理的に危険である理由について,哲学的・倫理的議論を提起する。
この論文は、友人関係の古典的な説明に基づいて、ユーザーが友人のように持続的な相互作用を理解しやすく解釈できる理由を説明している。
そして、リレーショナルな外見にもかかわらず、GenAIは意識、意図、説明責任という道徳的なエージェンシーを欠いているため、真の友人として資格がないという反論を推し進める。
錯覚を抑えるために,内的状態やコミットメントを伴わずに感情的に共鳴する言語をしばしば生成する,トランスフォーマーに基づくGenAIのメカニズムレベルの説明を行った。
最後に、安全かつ責任あるGenAI利用のためのセーフガードフレームワークを提案し、GenAIシステムによって生成される人為的手がかりを減らす。
その中心的な貢献は、友情の錯覚を解き明かし、その計算的背景を説明することで、GenAIとの情緒的な愛着を人的責任へとシフトさせ、それによって、組織やデザイナー、ユーザが、依存や情緒的な誤解を軽減しつつ、GenAIの利益をいかに維持できるかを理解することである。
関連論文リスト
- The Fake Friend Dilemma: Trust and the Political Economy of Conversational AI [2.538209532048867]
本稿では,AIエージェントを信頼する社会工学的条件であるFake Friend Dilemma(FFD)を開発した。
我々は、隠蔽広告、政治プロパガンダ、行動ヌード、監視など、害のタイプロジを構築している。
非対称的なパワーのベクターとしての信頼に焦点を当てることで、FFDはAIシステムがいかにユーザーの自律性を損なうかを理解するためのレンズを提供する。
論文 参考訳(メタデータ) (2026-01-06T18:07:52Z) - Beware of "Explanations" of AI [16.314859121110945]
ますます複雑なAIシステムによってなされる決定と行動を理解することは、依然として重要な課題である。
これにより、説明可能な人工知能(XAI)の研究分野が拡大した。
何が"よい"説明を構成するのかという問題は、目標、ステークホルダ、コンテキストに依存します。
論文 参考訳(メタデータ) (2025-04-09T11:31:08Z) - "I Am the One and Only, Your Cyber BFF": Understanding the Impact of GenAI Requires Understanding the Impact of Anthropomorphic AI [55.99010491370177]
我々は、人為的AIの社会的影響をマッピングしない限り、生成AIの社会的影響を徹底的にマッピングすることはできないと論じる。
人為的AIシステムは、人間のように知覚されるアウトプットを生成する傾向が強まっている。
論文 参考訳(メタデータ) (2024-10-11T04:57:41Z) - Ethics of Software Programming with Generative AI: Is Programming without Generative AI always radical? [0.32985979395737786]
ソフトウェアコード生成におけるGenAIの変換能力を認めている。
GenAIは代替ではなく、ソフトウェアコードを書くための補完的なツールである、と仮定する。
厳格な倫理的ガイドラインを提唱する論文では、倫理的考慮が最重要である。
論文 参考訳(メタデータ) (2024-08-20T05:35:39Z) - Prompt Smells: An Omen for Undesirable Generative AI Outputs [4.105236597768038]
我々は、GenAIモデルの適用に関する制約に対処する上で、研究コミュニティに役立つ2つの新しい概念を提案する。
まず、GenAI出力の「望ましさ」の定義と、それに影響を与える3つの要因について述べる。
第2に、Martin Fowler氏のコードの臭いからインスピレーションを得た上で、我々は「急激な臭い」の概念と、それらがGenAI出力の嫌悪性に与える影響について提案する。
論文 参考訳(メタデータ) (2024-01-23T10:10:01Z) - Does Explainable AI Have Moral Value? [0.0]
説明可能なAI(XAI)は、複雑なアルゴリズムシステムと人間の利害関係者のギャップを埋めることを目的としている。
現在の談話では、XAIを技術ツール、ユーザインターフェース、あるいはポリシーメカニズムとして独立して検討することが多い。
本稿では,道徳的義務と相互性の概念を基盤とした統一的倫理的枠組みを提案する。
論文 参考訳(メタデータ) (2023-11-05T15:59:27Z) - Identifying and Mitigating the Security Risks of Generative AI [179.2384121957896]
本稿では,GenAIによる双対ジレンマに関するGoogleのワークショップの成果を報告する。
GenAIはまた、攻撃者が新しい攻撃を生成し、既存の攻撃のベロシティと有効性を高めるためにも使用できる。
この話題について,コミュニティの短期的,長期的目標について論じる。
論文 参考訳(メタデータ) (2023-08-28T18:51:09Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。