这些错误不是坏事,反而很重要——就像你摔了一跤,才知道“车把要握稳”;神经网络犯了错,才知道“自己的判断逻辑有问题”。
第三步:根据错误“调参数”——就像你摔了后调整骑车姿势
摔了一跤后,你会想:“刚才车把歪了,下次要扶直;脚踏蹬得太急,下次慢一点。” 调整后再试,摔的次数越来越少,最后终于学会了骑车。
神经网络的“调整”过程,核心是“调参数”——这里的“参数”,可以理解成神经网络里“神经元之间的连接强度”。比如,它一开始可能觉得“有毛”这个特征很重要(连接强度高),“尖耳朵”这个特征不重要(连接强度低),所以会把狗当成猫。
当它发现“把狗当成猫”是错的时,系统会自动“反思”:“是不是我太看重‘有毛’了?应该让‘尖耳朵’‘喵喵叫’这些特征更重要一点。” 然后就会调整“有毛”“尖耳朵”“喵喵叫”这些特征的“连接强度”——比如降低“有毛”的强度,提高“尖耳朵”的强度。
这个“试错→调整→再试错→再调整”的过程,会重复成千上万次。直到神经网络认对猫的概率达到我们想要的标准(比如95%以上),“学习”就结束了。这时候,它就像你熟练骑车一样,再遇到新的猫的图片,不用我们教,也能准确认出来。
这里有个很有意思的点:神经网络调整参数的过程,是“自动”的。就像你学骑车时,大脑会自动记住“摔了是因为什么”,不用你刻意去想“我要改哪个参数”;神经网络也有一套自动调整的规则(比如“梯度下降”,不用记这个名字,知道是“自动找错、自动改”就行),不用程序员每次都手动改。
三、神经网络里的“关键术语”:用生活例子翻译一遍
聊到这里,你可能会在网上看到一些神经网络的“专业术语”,比如“深度学习”“卷积神经网络”“反向传播”。别被这些词吓到,它们其实都是“换了个说法的生活场景”,咱们一个个翻译:
1. “深度学习”:不是“学得深”,而是“隐藏层多”
很多人以为“深度学习”是“神经网络学得更深入、更聪明”,其实本质是“隐藏层的数量变多了”。
咱们之前说的神经网络,可能只有1-2个隐藏层,就像“小学水平”——能解决简单的问题,比如认猫、认狗。但如果要解决复杂的问题,比如“AI画插画”“AI写小说”,1-2个隐藏层就不够用了,得用“很多个隐藏层”(比如几十层、上百层)。
这就像你学数学:小学时学“1+1=2”,1个“思考步骤”(隐藏层)就够了;中学时学“一元二次方程”,得先算判别式、再求根,需要2-3个“思考步骤”;大学时学“微积分”,得先理解导数、再学积分,需要更多“思考步骤”。隐藏层越多,神经网络能处理的“复杂步骤”就越多,所以叫“深度学习”。
简单说:“深度学习”=“多隐藏层的神经网络”,就像“大学数学”=“多步骤的数学题”,核心是“步骤多了,能解决更难的问题”。
2. “卷积神经网络(CNN)”:专门处理“图片”的神经网络,像你看画一样“局部到整体”
你看一幅画时,不会一下子把整幅画的细节都记住,而是先看“左上角的花”“中间的人”“右下角的树”,再把这些局部拼起来,理解整幅画的内容。
“卷积神经网络”就是模仿这个逻辑,专门用来处理图片的。它的核心 trick 是“先看局部,再拼整体”:
- 第一步:“看局部”——用一个“小窗口”(比如3×3的像素)在图片上滑动,每次只看这个小窗口里的细节(比如“这个窗口里有没有猫的眼睛轮廓?”);
- 第二步:“拼整体”——把所有小窗口看到的局部信息汇总,比如“左边小窗口有眼睛,中间小窗口有鼻子,右边小窗口有嘴巴”,最后判断“这是猫的脸”。
这就像你拼图:先把“天空的碎片”“房子的碎片”“人的碎片”分别拼好(局部),再把这些部分拼在一起(整体),得到完整的拼图。CNN处理图片的逻辑,和拼图的逻辑完全一样,所以它特别擅长认图片、画图片——比如手机的“人脸解锁”、AI画插画,用的都是CNN。
3. “循环神经网络(RNN)”:专门处理“文字、声音”的神经网络,像你读句子一样“记前后文”
你读句子时,不会孤立地看每个字,而是会联系前后文理解意思。比如“他今天吃了一碗热____”,你会根据“热”和“一碗”,猜到后面可能是“面”“汤”,而不是“石头”——因为你记住了“前面的内容”。
“循环神经网络”就是模仿这个逻辑,专门处理“有先后顺序”的信息,比如文字、声音、时间序列(比如股票价格、天气数据)。它的核心 trick 是“能记住前面的信息,用来判断后面的内容”:
这章没有结束,请点击下一页继续阅读!
喜欢大白话聊透人工智能请大家收藏:(m.zuiaixs.net)大白话聊透人工智能醉爱小说网更新速度全网最快。