AI技术的发展给我们带来了众多工具和福利,但同时也引入了贫富差距和社会焦虑等问题。在开发技术时,我们有责任考虑其使用方式,并深入了解技术的本质及其对文化、社会和经济层面的影响。当前的大型语言模型(LLMs)的兴起及其快速采用引发了人们对技术理解的疑问。
LLMs与传统编程方式有所不同,需要掌握新的技能——以AI所理解的方式“说”话。了解LLMs并非创造新的、有创造力的内容,而是根据其所消化的输入,以问题的背景生成(或复制)输入的统计平均值。我们应该明白,AI并不像我们所想的那样理解我们,这是在开发新工具时对这些技术负责的重要一步。
通过一个“孤独香蕉问题”的例子,我们可以更好地理解AI的输出。作者在AI系统中提供了“一个单独的香蕉在灰色背景上投下阴影”的提示,然而系统生成的结果却都包含两个或更多香蕉。即使作者多次修改提示,都无法得到单个香蕉的输出。这个例子揭示了AI中微妙偏见的存在,即系统可能只能生成统计上常见的模式,而不能考虑到个别情况。
主体段落4:我们应当认识到AI并不像我们人类一样理解世界,它们的现实是基于逻辑世界而非物理世界。AI的创造力存在不同的限制,其想象力受限于已知的模式。与人类的创造力相比,AI的创造力有其不同之处。因此,在使用AI时,我们必须谨慎对待我们的假设和期望。
本文以“孤独香蕉问题”为例,揭示了人工智能中的微妙偏见。我们在使用AI技术时必须谨慎对待,确保对其输出的理解和应用符合实际,并与道德和责任原则相一致。在数字化时代,我们需要更深入地了解技术,认识到它的局限性,并在技术发展中保持谨慎和负责的态度。