要理解AI的“思考能力”,就得先说说两个关键技术:“神经网络”和“机器学习”。这俩词听起来特别专业,其实用大白话很好解释。咱们先说说“神经网络”,它其实是模仿人类大脑的结构设计的。人类大脑里有很多神经细胞,这些细胞相互连接,传递信息,帮我们思考;AI的神经网络也有很多“人工神经细胞”,这些“细胞”通过算法连接起来,能像大脑一样处理信息。比如你给AI看一张猫的照片,它的神经网络会先分析照片里的特征——有两只尖耳朵、圆眼睛、毛茸茸的身体,然后把这些特征和它“见过”的猫的特征对比,最后判断“这是一只猫”。
再说说“机器学习”,这是AI能“进步”的关键。简单说,就是AI通过大量的数据“学习”,不断优化自己的决策。比如你用AI翻译软件,一开始它可能会把“你吃饭了吗”翻译成“Did you eat rice”,特别生硬;但随着它“学习”了更多的中文对话数据,知道“吃饭”在中文里是“吃晚饭”的意思,就会慢慢把翻译改成“Did you have dinner”,越来越准确。这就像人类小时候学说话,一开始会说错,听多了、练多了,就会说得越来越对。
正是因为有了神经网络和机器学习,AI才能“随机应变”,做出不确定的决策。咱们举个例子:现在很多快递公司用AI来规划快递员的送货路线。如果是自动化设备,可能只会按“距离最近”的固定路线规划,比如从A小区到B小区,再到C小区,不管路上有没有堵车、有没有修路。但AI不一样,它会实时收集数据——比如导航显示A小区到B小区的路堵车了,天气预报说C小区附近会下雨,还有个客户打电话说“下午3点前在家,之后要出门”。AI会把这些数据都分析一遍,然后重新规划路线:先绕开堵车的路,去C小区送(避开下雨),再去B小区,最后去A小区(赶上客户在家的时间)。你看,AI的决策不是固定的,会根据实时情况调整,而且这个调整后的路线,可能比人类规划的还要合理——人类可能记不住那么多客户的时间要求,也没法实时掌握所有路段的堵车情况,但AI可以。
再比如AI下棋,比如AlphaGo(阿尔法狗)。以前的自动化下棋程序,只会按固定的棋谱走,比如“马走日、象走田”,遇到复杂的局面就会出错。但AlphaGo不一样,它通过学习几百万盘围棋对局,自己总结出了很多人类没发现的棋路。比如它和韩国棋手李世石下棋时,下出了一步“挖断”的棋,当时所有的围棋高手都觉得这步棋“不合理”,但最后证明,这步棋是赢棋的关键。你看,AI的决策不仅超出了人类的预期,甚至比人类更聪明,但同时也让人类“猜不透”——没人知道它下一步会走什么,因为它的决策是基于自己的“思考”,而不是人类设定的固定程序。
这种“不确定性”,就是AI可能带来威胁的根源。不是说AI会像电影里那样“造反”,而是它的决策可能会出现人类没预料到的后果。比如以前有个AI招聘工具,企业用它来筛选简历,结果AI因为学习了过去的招聘数据(过去招聘的大多是男性),就自动把女性简历筛掉了,这就是AI的决策出现了“偏见”,而且这种偏见是设计它的人一开始没预料到的。再比如AI控制的自动驾驶汽车,如果遇到“一边是行人,一边是护栏”的紧急情况,它会怎么选?人类可能会根据现场情况做出判断,但AI的决策是基于算法,这个算法的优先级是“保护行人”还是“保护司机”?如果算法设定有问题,就可能出现危险的结果。
所以说,AI更像是一个“有自己想法的合伙人”,它能帮人类解决很多复杂的问题,甚至比人类做得更好,但它的“想法”有时候会超出人类的控制,带来不确定的风险。这和自动化那种“听话的工具人”完全不同——自动化不会有自己的想法,AI却可能有,而且这个想法还可能是人类猜不到的。
四、马斯克为啥和OpenAI分道扬镳?核心矛盾就藏在AI的“不确定性”里
聊完了AI和自动化的区别,咱们再说说一个大家特别关心的话题:马斯克为啥会和OpenAI分道扬镳?其实这事儿和咱们前面聊的AI“不确定性”有很大关系,简单说就是:马斯克担心AI的“不确定性”会带来风险,想让AI更“安全”;但OpenAI后来的发展方向,在马斯克看来“不够谨慎”,所以两人就走不到一起了 。
先给大家补个背景:OpenAI是2015年成立的,马斯克是创始人之一。当时成立OpenAI的初衷特别好,就是“让AI造福人类,避免AI带来的风险”。马斯克一直对AI的风险很警惕,他曾经公开说过“AI可能是人类文明最大的威胁”,不是说AI会毁灭人类,而是担心AI的“不确定性”会失控——比如AI被用来做坏事,或者AI自己的决策出现偏差,给人类带来麻烦。所以他一开始支持OpenAI,就是想让AI在“安全”的框架下发展,比如给AI设定“不能伤害人类”的底线,让AI的决策始终在人类的控制范围内。
小主,这个章节后面还有哦,请点击下一页继续阅读,后面更精彩!
喜欢大白话聊透人工智能请大家收藏:(m.zuiaixs.net)大白话聊透人工智能醉爱小说网更新速度全网最快。