AIGC从入门到实战:ChatGPT+Midjourney+Stable Diffusion+行业应用
上QQ阅读APP看书,第一时间看更新

1.2 基建:人工智能时代的变迁

1.2.1 历史上人工智能科学发展史的三个阶段

人工智能的科学发展历程可以分为以下三个阶段。

1.规则推理阶段(1956年至20世纪80年代初)

这个阶段的人工智能主要使用符号推理方法,基于一些规则和知识来进行决策。该阶段的代表性成果是专家系统。然而,专家系统面临的问题是它们需要人工编写大量规则,且不能处理模糊和不确定的信息。

2.统计学习阶段(20世纪80年代至21世纪10年代初)

随着统计学习方法的兴起,人工智能开始转向从数据中学习知识和规律。这个阶段的代表性成果是支持向量机(SVM)和神经网络。这类方法的主要特点是使用数据训练模型,并通过大量数据来提高模型的准确性和泛化能力。然而,由于计算能力和数据量的限制,这些方法并未在实际应用中取得重大突破。

3.深度学习阶段(21世纪10年代初至今)

深度学习是一种基于神经网络的机器学习方法,它可以自动学习高层次抽象特征,并在大规模数据上训练更复杂的模型。这个阶段的代表性成果是深度神经网络(Deep Neural Network,DNN)和卷积神经网络(Convolutional Neural Network,CNN)。深度学习方法的出现,使得人工智能在图像识别、自然语言处理、语音识别等方面取得了重大突破。

当然,我们可以从另外一个角度,即人工智能发展态势的起伏,来将其发展区分为不同的阶段,如图1-2所示。

早期萌芽阶段:指人工智能的起源和初期探索阶段,即1956年至20世纪90年代中期。

沉淀积累阶段:指人工智能技术和理论得到深入研究和积累的阶段,即20世纪90年代中期至21世纪10年代中期。

快速发展阶段:指人工智能技术迅速发展和广泛应用的阶段,即21世纪10年代中期至今。

AIGC作为人工智能的一个分支,也在不断发展壮大。在早期萌芽阶段、沉淀积累阶段及快速发展阶段,AIGC都取得了相应的进步,并且发生了许多里程碑事件。与人工智能领域一样,AIGC也经历了起起落落,其发展的每个阶段各具特点。每一个进展,都为AIGC的蓬勃发展做出了贡献。

同许多领域的发展相似,AIGC的繁荣展现出一种不可被完全计划的特质。就像ChatGPT的核心研发科学家肯尼斯·斯坦利(Kenneth Stanley)和乔尔·雷曼(Joel Lehman)在他们合著的新书《为什么伟大不能被计划》(《Why Greatness Cannot Be Planned》)中提到的,科学领域中最重要的发现,往往不是完全按计划发展而来,而是由各种因素的相互作用塑造而成的。这一观点也可以解释AIGC领域的崛起:各个阶段的进展、里程碑事件和发展特点,构成了一幅不可预测但充满活力的图景。这源于人类创造力和科学探索的交汇,展现出人工智能领域的无限潜力。

图1-2简单梳理了上述三个阶段的发展特点和AIGC领域的典型事件。

图1-2

1.2.2 人工智能时代的三个子阶段:AI 1.0、AI 2.0、AI 3.0

人工智能时代是指人工智能技术得到广泛应用和发展的时期。目前通常将人工智能时代分为三个子阶段:AI 1.0、AI 2.0和AI 3.0。

AI 1.0时代是指2010年至2022年,人工智能主要在算力、算法和数据三个方面发力狂奔,这一时期也被称为“基础建设时代”。

AI 2.0时代从2022年开始,这一时期,人工智能开始进入“应用落地时代”,大规模商业化应用逐渐成为主流,同时人工智能技术也逐渐被整合应用于各个领域。

AI 3.0时代则尚未到来,到这一时期,人工智能技术将进一步发展,开始追求更高层次的“智能”,并逐渐进入与人类协作的新时代。

1.2.3 算法、算力、数据三驾马车的发力狂奔

AI 1.0时代是一个算法、算力、数据三架马车发力狂奔的时代,如图1-3所示。下面就分别介绍三者的发展。

图1-3

1.关于算力那些事

算力是人工智能发展的基础,决定了人工智能的计算能力和效率,就好比人类社会中的电力决定了电车能跑多远的距离、速度能达到多少。随着芯片的不断发展,GPU、TPU等专用芯片极大地提升了人工智能的算力。

GPU最初被设计用于加速计算机图形的处理,但是它们的高并行性能和能够同时执行大量浮点运算的能力,使它们成为深度学习等人工智能应用的首选计算平台。而TPU则是由Google专门为深度学习任务开发的定制芯片,具有更高的能效比和更好的加速性能,可以大幅提高人工智能算法的训练速度和效率。人工智能的芯片可以分为通用处理器和专用处理器两种类型。通用处理器是一种通用的计算机处理器,如中央处理器(Central Processing Unit,CPU)和图形处理器(GPU)。专用处理器是一种针对特定的人工智能任务进行优化的芯片,如全定制化芯片(Application Specific Integrated Circuit,ASIC)中的TPU、半定制化芯片如现场可编程门阵列(Field Programmable Gate Array,FPGA)等。

2.关于算法那些事

算法是人工智能发展的核心,它好比人类社会中的交通工具,或者更具体地说,它就像不同的发动机引擎,决定了人工智能的计算方法、学习能力和应用范围。随着深度学习等技术的不断发展,人工智能的算法得到了极大的提升。深度学习是一种基于神经网络的机器学习方法,它模仿人脑神经元的工作方式,通过多层次的神经元模型来实现对数据的学习和识别。

深度学习算法发展过程中的一个重要的里程碑是2012年ILSVRC(ImageNet Large Scale Visual Recognition Challenge)比赛中,深度学习算法AlexNet的问世。AlexNet使用了卷积神经网络(Convolutional Neural Network,CNN)的结构,成功地解决了大规模图像分类问题,在比赛中取得了惊人的成绩。自此以后,深度学习算法在图像识别、语音识别、自然语言处理等领域的应用不断拓展。

在深度学习算法的基础上,还有一些其他的算法模型也得到了广泛的应用,例如强化学习、迁移学习、生成对抗网络等。这些算法模型的不断发展,让人工智能的应用范围得到了进一步的扩展,进入了诸如自动驾驶、智能客服、智能家居等领域。

3.关于数据那些事

数据是人工智能发展的资源,决定了人工智能的输入和输出,以及应用场景和效果,它就好比人类社会中的物质资源。过去,由于缺乏大规模、高质量的数据,人工智能技术无法大规模应用,因此数据一直是人工智能发展的瓶颈。

随着互联网技术的不断发展和普及,越来越多的数据被数字化并被储存起来,这些数据成为人工智能技术发展的重要基础。同时,由于物联网和移动设备的普及,越来越多的设备能够生成数据,并将这些数据传输到云端进行处理和分析,为人工智能技术提供了更多的数据来源和实时数据处理的可能性。数据的日益丰富是人工智能技术发展的重要驱动力。