跳过正文
  1. 文章/
  2. 计算机前世今生系列/

深度学习爆发:AlphaGo击败李世石

sun.ao
作者
sun.ao
我是 sun.ao,一名热爱技术的程序员,专注于 AI 和数智化领域。
目录
计算机前世今生 - 这篇文章属于一个选集。
§ : 本文

2016年3月9日,韩国首尔。

世界围棋冠军李世石坐在棋盘前,对面是Google DeepMind的AlphaGo

围棋被认为是人类智慧的堡垒。它的可能性比宇宙中的原子还多,计算机无法穷举。

在比赛前,大多数专家认为AlphaGo会输。围棋太复杂了,计算机不可能战胜人类顶尖棋手。

但第一局,AlphaGo赢了。

李世石震惊了。他后来说:“我很惊讶。我不认为AlphaGo能下得这么好。”

最终,AlphaGo以4:1击败李世石。

这个结果震惊了世界。AI时代,正式到来。

围棋的难度
#

为什么围棋被认为是AI的终极挑战?

围棋棋盘是19×19,有361个交叉点。每个位置可以放黑子、白子或空着。

可能的对局数量约为10^170——比宇宙中的原子数量(约10^80)还多。

国际象棋的可能对局数量约为10^120,围棋比国际象棋复杂得多。

1997年,IBM的深蓝击败了国际象棋世界冠军卡斯帕罗夫。但深蓝的方法——穷举搜索——在围棋上行不通。

围棋需要直觉大局观,这些被认为是人类独有的能力。

深度学习的突破
#

AlphaGo的成功,归功于深度学习

深度学习使用神经网络——一种模拟人脑结构的计算模型。

神经网络由多层"神经元"组成:

  • 输入层:接收数据(比如棋盘状态)
  • 隐藏层:提取特征,逐层抽象
  • 输出层:给出结果(比如下一步棋)

深度学习的"深度",指的是隐藏层的数量。层数越多,模型越复杂,能学习越抽象的特征。

AlphaGo使用了两个神经网络:

策略网络(Policy Network):预测下一步应该下在哪里

价值网络(Value Network):评估当前局面的胜率

这两个网络通过深度学习训练,学习了数百万局人类对局,然后自我对弈,不断提高。

深度学习的历史
#

深度学习不是新技术,它经历了漫长的冬天。

1943年:McCulloch和Pitts提出了第一个神经网络模型。

1958年:Rosenblatt发明了感知机(Perceptron)——最简单的神经网络。

1969年:Minsky和Papert证明,感知机无法解决简单的问题(如异或问题)。神经网络研究进入低谷。

1986年:Hinton等人发明了反向传播算法,可以训练多层神经网络。神经网络复兴。

1998年:LeCun等人开发了LeNet,用于手写数字识别。这是卷积神经网络(CNN)的雏形。

2006年:Hinton提出了深度信念网络,“深度学习"这个词开始流行。

2012年:AlexNet在ImageNet图像识别比赛中大获全胜,深度学习开始爆发。

2016年:AlphaGo击败李世石,深度学习震惊世界。

深度学习为什么成功?
#

深度学习在2010年代爆发,原因有三:

第一,数据。互联网产生了海量数据,深度学习需要大量数据才能训练。

第二,计算能力。GPU(图形处理器)可以并行计算,大大加速了神经网络训练。

第三,算法。新的激活函数(ReLU)、新的优化方法(Adam)、新的网络结构(ResNet)解决了训练深层网络的问题。

深度学习的优势是:自动学习特征

传统机器学习需要人工设计特征。比如图像识别,需要设计边缘、纹理、形状等特征。

深度学习不需要人工设计特征。神经网络可以自动从原始数据中学习特征。

AlphaGo之后
#

AlphaGo之后,DeepMind继续改进:

AlphaGo Zero(2017):不使用任何人类对局,完全通过自我对弈学习。3天后超越了AlphaGo。

AlphaZero(2018):一个通用的算法,可以学习围棋、国际象棋、日本象棋。不需要针对每种游戏设计特定算法。

MuZero(2020):甚至不需要知道游戏规则,可以通过探索学习规则。

AlphaGo的技术也被应用到其他领域:蛋白质折叠预测(AlphaFold)、核聚变控制、芯片设计优化。

深度学习的应用
#

深度学习已经广泛应用:

计算机视觉

  • 图像分类:识别图片中的物体
  • 目标检测:定位图片中的物体
  • 人脸识别:解锁手机、安防监控
  • 医学影像:诊断疾病

语音处理

  • 语音识别:Siri、小爱同学
  • 语音合成:虚拟主播、有声书
  • 语音翻译:实时翻译

自然语言处理

  • 机器翻译:Google翻译、DeepL
  • 文本生成:GPT系列
  • 问答系统:智能客服
  • 情感分析:分析用户评论

游戏AI

  • AlphaGo:围棋
  • OpenAI Five:Dota 2
  • AlphaStar:星际争霸

自动驾驶

  • 特斯拉Autopilot
  • Waymo

科学发现

  • AlphaFold:蛋白质结构预测
  • 材料发现
  • 药物研发

深度学习的局限
#

深度学习也有局限:

数据饥渴:需要大量标注数据。

计算密集:训练大模型需要大量GPU,成本高昂。

黑盒问题:很难解释模型为什么做出某个决策。

对抗脆弱:精心设计的微小扰动可以欺骗模型。

泛化问题:模型在新场景可能表现不佳。

下一步:AI浪潮
#

AlphaGo的胜利,标志着AI进入新纪元。

从2016年开始,AI技术快速发展。大语言模型、生成式AI、多模态AI……一个个突破接踵而至。

明天,我们来讲2016年后的AI浪潮。


今日知识点
#

深度学习(Deep Learning) 使用多层神经网络的机器学习方法。深度学习可以自动学习特征,不需要人工设计。在图像识别、语音识别、自然语言处理等领域取得了突破。

神经网络(Neural Network) 模拟人脑结构的计算模型,由多层"神经元"组成。输入层接收数据,隐藏层提取特征,输出层给出结果。深度学习的"深度"指隐藏层的数量。

卷积神经网络(CNN) 一种专门用于图像处理的神经网络。使用卷积操作提取图像特征,在图像识别、目标检测等领域表现出色。


思考题
#

  1. AlphaGo击败李世石,被认为是AI历史的里程碑。你觉得这个事件的意义是什么?
  2. 深度学习需要大量数据和计算能力。这是否意味着只有大公司才能做AI?

明天预告:AI浪潮来袭——2016年后的科技巨变,AI如何改变各行各业?

计算机前世今生 - 这篇文章属于一个选集。
§ : 本文

相关文章