論文の概要: Fluid Transformers and Creative Analogies: Exploring Large Language
Models' Capacity for Augmenting Cross-Domain Analogical Creativity
- arxiv url: http://arxiv.org/abs/2302.12832v2
- Date: Fri, 2 Jun 2023 02:31:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-05 20:00:49.339627
- Title: Fluid Transformers and Creative Analogies: Exploring Large Language
Models' Capacity for Augmenting Cross-Domain Analogical Creativity
- Title(参考訳): 流体トランスフォーマーと創造的アナロジー--言語モデルによるクロスドメイン類似創造の強化のための能力の検討
- Authors: Zijian Ding, Arvind Srinivasan, Stephen MacNeil, Joel Chan
- Abstract要約: クロスドメインなアナロジー推論は、人間にとって困難な、中核的な創造力である。
最近の研究は、Large Language Modelsのクロスドメインアナログを生成する能力の証明を示している。
- 参考スコア(独自算出の注目度): 7.101885582663675
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cross-domain analogical reasoning is a core creative ability that can be
challenging for humans. Recent work has shown some proofs-of concept of Large
language Models' (LLMs) ability to generate cross-domain analogies. However,
the reliability and potential usefulness of this capacity for augmenting human
creative work has received little systematic exploration. In this paper, we
systematically explore LLMs capacity to augment cross-domain analogical
reasoning. Across three studies, we found: 1) LLM-generated cross-domain
analogies were frequently judged as helpful in the context of a problem
reformulation task (median 4 out of 5 helpfulness rating), and frequently (~80%
of cases) led to observable changes in problem formulations, and 2) there was
an upper bound of 25% of outputs bring rated as potentially harmful, with a
majority due to potentially upsetting content, rather than biased or toxic
content. These results demonstrate the potential utility -- and risks -- of
LLMs for augmenting cross-domain analogical creativity.
- Abstract(参考訳): クロスドメインのアナロジー推論は、人間にとって挑戦的なコアな創造的能力である。
最近の研究は、言語モデル(LLM)がドメイン間の類似を生成できるという概念の証明を示している。
しかし、この能力が人間の創造性を増強する上での信頼性と潜在的有用性は、体系的な調査をほとんど受けていない。
本稿では,LLMのキャパシティを体系的に探求し,ドメイン間類似推論を増強する。
3つの研究で明らかになったのは
1) LLM生成のクロスドメインアナログは, 問題修正作業の文脈で有用であると判断されることが多かった(5つ中4つ中4つ中4つ中4つ中4つ中4つ)。
2) 最大25%のアウトプットが潜在的に有害であると評価され, その大多数は偏りや有害な内容ではなく, 潜在的に動揺するコンテンツによるものであった。
これらの結果は、ドメイン間類似の創造性を高めるためのLLMの有用性とリスクを実証している。
関連論文リスト
- The Curse of Multi-Modalities: Evaluating Hallucinations of Large Multimodal Models across Language, Visual, and Audio [118.75449542080746]
本稿では,大規模マルチモーダルモデル(LMM)における幻覚に関する最初の系統的研究について述べる。
本研究は,幻覚に対する2つの重要な要因を明らかにした。
私たちの研究は、モダリティ統合の不均衡やトレーニングデータからのバイアスなど、重要な脆弱性を強調し、モダリティ間のバランスの取れた学習の必要性を強調した。
論文 参考訳(メタデータ) (2024-10-16T17:59:02Z) - Exploring Language Model Generalization in Low-Resource Extractive QA [57.14068405860034]
ドメインドリフト下でのLarge Language Models (LLM) を用いた抽出質問応答(EQA)について検討する。
パフォーマンスギャップを実証的に説明するための一連の実験を考案する。
論文 参考訳(メタデータ) (2024-09-27T05:06:43Z) - From Linguistic Giants to Sensory Maestros: A Survey on Cross-Modal Reasoning with Large Language Models [56.9134620424985]
クロスモーダル推論(CMR)は、より高度な人工知能システムへの進化における重要な能力として、ますます認識されている。
CMRタスクに取り組むためにLLM(Large Language Models)をデプロイする最近のトレンドは、その有効性を高めるためのアプローチの新たな主流となっている。
本調査では,LLMを用いてCMRで適用された現在の方法論を,詳細な3階層分類に分類する。
論文 参考訳(メタデータ) (2024-09-19T02:51:54Z) - Dual-stream Feature Augmentation for Domain Generalization [16.495752769624872]
2つの視点からいくつかのハードな特徴を構築することでDFA(Dual-stream Feature Augmentation)法を提案する。
提案手法は,領域一般化のための最先端性能を実現することができる。
論文 参考訳(メタデータ) (2024-09-07T03:41:05Z) - AnaloBench: Benchmarking the Identification of Abstract and Long-context Analogies [19.613777134600408]
アナロジー思考は、人間が創造的な方法で問題を解決することを可能にする。
言語モデル(LM)も同じことができますか?
ベンチマークアプローチは、人間に共通するこの能力の側面に焦点を当てます。
論文 参考訳(メタデータ) (2024-02-19T18:56:44Z) - A Survey on Transferability of Adversarial Examples across Deep Neural Networks [53.04734042366312]
逆の例では、機械学習モデルを操作して誤った予測を行うことができます。
敵の例の転送可能性により、ターゲットモデルの詳細な知識を回避できるブラックボックス攻撃が可能となる。
本研究は, 対角移動可能性の展望を考察した。
論文 参考訳(メタデータ) (2023-10-26T17:45:26Z) - Endogenous Macrodynamics in Algorithmic Recourse [52.87956177581998]
対実説明(CE)とアルゴリズム・リコース(AR)に関する既存の研究は、静的環境における個人に主に焦点を当ててきた。
既存の方法論の多くは、一般化されたフレームワークによってまとめて記述できることを示す。
次に、既存のフレームワークは、グループレベルでの言論の内在的ダイナミクスを研究する際にのみ明らかとなるような、隠された対外的関係のコストを考慮に入れていないと論じる。
論文 参考訳(メタデータ) (2023-08-16T07:36:58Z) - Unlocking the Power of GANs in Non-Autoregressive Text Generation [12.168952901520461]
NAR構造に基づく構築言語GANの先駆的研究を行う。
GANに基づく非自己回帰変換器(ANT)モデルを提案する。
実験の結果、ANTはメインストリームモデルと同等のパフォーマンスを単一のフォワードパスで達成できることが示された。
論文 参考訳(メタデータ) (2023-05-06T08:43:33Z) - Multi-view Adversarial Discriminator: Mine the Non-causal Factors for
Object Detection in Unseen Domains [36.4342793435982]
本稿では、ソースドメイン上での多視点対角訓練により、共通特徴から非因果因子を除去するアイデアを提案する。
マルチビュー逆微分器(MAD)に基づく領域一般化モデルを提案する。
我々のMADは6つのベンチマークで最先端のパフォーマンスを得る。
論文 参考訳(メタデータ) (2023-04-06T09:20:28Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。