【虎科技】12月22日消息,幻觉一词一直被广泛用于描述大型语言模型输出虚假信息的情况。然而,OpenAI的首席执行官山姆·奥特曼(Sam Altman)最近提出了一个有趣的观点,认为人工智能产生的"幻觉"实际上可以被看作是一种创造力的表现,而这一观点是否能够合理反驳大众对于人工智能准确性的担忧呢?
让我们来明确一下什么是人们口中所谓的"致幻"人工智能系统。以GPT4为例,当用户提出问题时,它可能会生成看似合理但事实上虚假的信息,这种情况被形象地称为"幻觉"。这种情况可能会让人产生误解,认为GPT能够准确传达信息,但实际上并非如此。
据虎科技了解,大型语言模型的工作原理并不像人类大脑一样,它们是基于语言的模式和概率构建的,而不是基于外部感知进行事实验证的。因此,在它们的世界中,答案不分对错,而是取决于上下文和用户的表达意图。

正如创造力研究专家所指出的,人类的创造性思维涉及一种启发式搜索的过程,即在没有已知解决方案的情况下寻找创意的方法。这种搜索是一种盲目的、系统化的过程,涉及到生成和评估不同的想法。而大型语言模型虽然能够生成创意性的内容,但在评估方面仍存在不足。
然而,作为生成工具,GPT在生成和评估方面都有一定的潜力。它能够根据用户需求产生新的想法,并为用户提供更多思考素材。但最终的评估工作仍需要用户来完成。与人类创造力不同,GPT并不会自动将生成的内容与事实进行区分,因此用户需要谨慎地评估其输出。
虽然GPT在创造性搜索方面具有一定优势,但在生成方面仍存在一些问题,其生成的内容可能质量不高。因此,在将GPT视为创造性工具时,用户需要明确其局限性,理解其生成的内容可能并不总是准确的。
总的来说,GPT可以被看作是一种强大的创作工具,但在使用时需要谨慎,并明确其不足之处。创造力与准确性并不矛盾,因此在追求创新的同时,也需要保持对事实的敬畏。对于人工智能的未来发展,我们需要在创造性和准确性之间寻找平衡,并认真考虑其在各个领域的应用和潜在影响。














