論文の概要: An LLM's Apology: Outsourcing Awkwardness in the Age of AI
- arxiv url: http://arxiv.org/abs/2506.13685v1
- Date: Mon, 16 Jun 2025 16:46:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:49.081323
- Title: An LLM's Apology: Outsourcing Awkwardness in the Age of AI
- Title(参考訳): LLMの謝罪:AI時代の覚醒をアウトソーシングする
- Authors: Twm Stone, Anna Soligo,
- Abstract要約: 現代社会のダイナミクスの鍵となる部分は、短い注意を喚起することである。
このタスクをLLM(Large Language Model)に委譲する能力は、摩擦を大幅に減少させる可能性がある。
FLAKE-Benchは,様々な社会的,専門的,ロマンチックなシナリオから,モデルの有効性を効果的に,優しく,人間的に抽出する能力の評価手法である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A key part of modern social dynamics is flaking at short notice. However, anxiety in coming up with believable and socially acceptable reasons to do so can instead lead to 'ghosting', awkwardness, or implausible excuses, risking emotional harm and resentment in the other party. The ability to delegate this task to a Large Language Model (LLM) could substantially reduce friction and enhance the flexibility of user's social life while greatly minimising the aforementioned creative burden and moral qualms. We introduce FLAKE-Bench, an evaluation of models' capacity to effectively, kindly, and humanely extract themselves from a diverse set of social, professional and romantic scenarios. We report the efficacy of 10 frontier or recently-frontier LLMs in bailing on prior commitments, because nothing says "I value our friendship" like having AI generate your cancellation texts. We open-source FLAKE-Bench at github.com/Cloakless/flake-bench to support future research.
- Abstract(参考訳): 現代社会のダイナミクスの鍵となる部分は、短い注意を喚起することである。
しかし、社会的に許容できる理由を思いつくことの不安は、相手の感情的な害や恨みを危険にさらす「幽霊」や「ぎこちない」、または不愉快な言い訳につながる可能性がある。
このタスクをLLM(Large Language Model)に委譲することで、摩擦を大幅に低減し、上記の創造的負担と道徳的品質を大幅に最小化しつつ、ユーザの社会的生活の柔軟性を高めることができる。
FLAKE-Benchは,様々な社会的,専門的,ロマンチックなシナリオから,モデルの有効性を効果的に,優しく,人間的に抽出する能力の評価手法である。
われわれは、AIがキャンセルテキストを生成するような「友情を大切にしている」という発言が何もないため、事前のコミットメントを保留する上で、フロンティア10社、あるいは近年のフロンティアLEMsの有効性を報告する。
今後の研究を支援するため、github.com/Cloakless/flake-benchでFLAKE-Benchをオープンソース化しました。
関連論文リスト
- VIBE: Can a VLM Read the Room? [17.722429998521168]
視覚言語モデル(VLM)はこのギャップを考慮に入れることができるが、そのような社会的手がかりに対して正しい推論を行う能力はほとんど注目されていない。
VLMのための新しいタスクとして,ビジュアルソーシャル・プラグマティック・推論を提案する。
本稿では,この課題に対するVLMの能力をテストするための高品質なデータセットを構築し,その上でのVLMの性能をベンチマークする。
論文 参考訳(メタデータ) (2025-06-11T19:07:35Z) - Engagement-Driven Content Generation with Large Language Models [8.049552839071918]
大規模言語モデル(LLM)は1対1の相互作用において重要な説得力を示す。
相互接続されたユーザーと複雑な意見のダイナミクスがユニークな課題を引き起こすソーシャルネットワークにおける彼らの影響力は、いまだ過小評価されている。
本稿では,emphCan LLMがソーシャルネットワーク上でユーザエンゲージメントを最大化する有意義なコンテンツを生成するかという研究課題に対処する。
論文 参考訳(メタデータ) (2024-11-20T10:40:08Z) - SS-GEN: A Social Story Generation Framework with Large Language Models [87.11067593512716]
自閉症スペクトラム障害(ASD)を持つ子供たちは、しばしば社会的状況を誤解し、日々のルーチンに参加するのに苦労する。
社会物語は伝統的にこれらの課題に対処するために厳格な制約の下で心理学の専門家によって作られた。
幅広い範囲でリアルタイムでソーシャルストーリーを生成するフレームワークである textbfSS-GEN を提案する。
論文 参考訳(メタデータ) (2024-06-22T00:14:48Z) - Tuning-Free Accountable Intervention for LLM Deployment -- A
Metacognitive Approach [55.613461060997004]
大規模言語モデル(LLM)は、自然言語処理タスクの幅広い領域にわたる変換的進歩を触媒している。
我々は,自己認識型誤り識別と訂正機能を備えたLLMを実現するために,textbfCLEARと呼ばれる革新的なテキストメタ認知手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T19:18:53Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - Lyfe Agents: Generative agents for low-cost real-time social
interactions [2.6175716019885096]
Lyfe Agentsは低コストとリアルタイムの応答性を組み合わせる。
人間の脳にインスパイアされた手法を応用すれば、Lyfe Agentsは人間のような自己動機の社会的推論を表現できる。
我々の研究は、仮想空間における人間の社会体験を豊かにする自律的生成エージェントの変容の可能性を明らかにするものである。
論文 参考訳(メタデータ) (2023-10-03T16:06:30Z) - Emotionally Numb or Empathetic? Evaluating How LLMs Feel Using EmotionBench [83.41621219298489]
心理学からの感情評価理論を用いて,Large Language Models (LLMs) の人為的能力を評価する。
我々は、研究の中心となる8つの感情を引き出すのに有効な400以上の状況を含むデータセットを収集した。
我々は世界中の1200人以上の被験者を対象に人間による評価を行った。
論文 参考訳(メタデータ) (2023-08-07T15:18:30Z) - Voluminous yet Vacuous? Semantic Capital in an Age of Large Language
Models [0.0]
大きな言語モデル(LLM)は、自然言語処理の領域において変換力として出現し、人間のようなテキストを生成する力を持つ。
本稿では、これらのモデルの進化、能力、限界について考察し、それらが引き起こす倫理的懸念を強調した。
論文 参考訳(メタデータ) (2023-05-29T09:26:28Z) - MISC: A MIxed Strategy-Aware Model Integrating COMET for Emotional
Support Conversation [64.37111498077866]
本稿では,感情支援会話のための新しいモデルを提案する。
ユーザの微妙な感情状態を推測し、その後、戦略の混合を使って巧みに応答する。
評価実験の結果,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-03-25T10:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。