其次,“岗位消失”是社会问题,不是技术问题。他明确说:“我们搞技术的人,解决不了所有社会问题,但能做的是把技术做好,让社会变得更富,给解决问题打基础。”什么意思?比如AI让工厂效率提高了,工厂赚了更多钱,政府可以通过税收调节,用这些钱去培训失业的人,帮他们学新技能、找新工作;或者发展新的行业,比如AI运维、AI训练这些需要人的岗位,把“失去的岗位”补回来。他举了个例子:“以前没有互联网的时候,哪有‘程序员’‘电商主播’这些岗位?技术进步会消灭旧岗位,但也会创造新岗位,关键是社会要做好‘衔接’。”
他还提到一个细节:“华为自己用AI,也没让员工失业。比如以前有些重复的工作,现在让AI做了,我们就把员工调到更有创造性的岗位,比如AI算法优化、AI应用设计,反而让员工的价值更高了。”这话不是为了“宣传”,而是想说明:AI不是“跟人抢工作”,而是“把人从重复的劳动里解放出来”,去做更有意义、更需要创造力的事。
简单说就是:不用怕AI带来的挑战,技术进步的大方向是对的,只要社会做好“配套”,比如教育、培训、就业保障,就能把“压力”变成“动力”。
三、搞AI研究:别只盯代码,得有“更高的思考”
这些ICPC选手都是“技术学霸”,最关心的问题是“AI研究该往哪儿走”“怎么才能把AI做得更好”。任正非没有跟他们聊具体的算法优化、代码技巧,反而提到了一个看似不相关的词——“哲学”。不是故意“掉书袋”,而是想给这些年轻人提个醒:搞AI不能只盯着眼前的技术细节,得站得更高,想清楚“背后的逻辑”。
他拿“工业革命”和“信息时代”做对比,把这个道理讲得很透彻:
在工业革命时代,大家信奉的是“形而上学”和“机械唯物论”。简单说就是把世界看成一台“精密的机器”,比如齿轮转一圈,带动另一个齿轮转半圈,所有事情都有固定的规律。只要研究清楚这些规律,就能搞出蒸汽机、纺织机、火车这些设备。欧洲、日本就是靠这套思路,造出了很多厉害的工程机械,推动了工业发展。
但现在到了AI时代,这套思路不够用了。为什么?因为AI不是“简单的机器”,它能学习、能进化、能根据数据调整自己的行为。比如AI识别图片,不是靠“固定的规则”(比如“有两个圆就是眼睛”),而是靠分析海量图片,自己总结出“什么是猫、什么是狗”;再比如AI写文案,不是靠“背模板”,而是靠学习大量文字,自己掌握语言逻辑。这些都不是“机械规律”能解释的,背后是复杂的“信息交互”和“数据逻辑”。
所以他说:“未来进入信息世界,需要更高的哲学层面来研究世界的实现。”这句话的意思是,想把AI的潜力挖出来,光会写代码、调参数不行,得搞明白“信息世界的运行规律是什么”“AI和人类的关系应该是什么”“怎么让AI更好地理解人类的需求”。比如AI怎么判断“用户想要的是‘实用建议’还是‘情感安慰’”?怎么避免AI做出“看似正确但不合情理”的决策?这些问题不是技术能单独解决的,需要结合对“人”“社会”“伦理”的理解,这就是“更高的思考”。
他还举了个例子:“以前我们做手机,只要把硬件做好、系统流畅就行;现在做AI手机,得考虑‘AI怎么懂用户的习惯’——比如用户早上起床,AI自动调出天气和通勤路线;用户累了,AI自动推荐放松的音乐。这不是简单的技术问题,是要‘懂人’,懂人的生活方式、情感需求,这背后就是对‘人与技术关系’的思考。”
对这些年轻选手来说,这话的启发在于:别当“只会写代码的工具人”,要做“懂技术、懂社会、懂人的创新者”。只有这样,才能搞出真正有价值的AI技术,而不是“实验室里的玩具”。
四、不用怕“AI自我再造”:三十年之内,还是人说了算
有个年轻选手问了个很尖锐的问题:“如果AI发展到能自己‘再造’自己——比如自己写代码、自己优化算法,不用人管了,那人类还有立足之地吗?”这是很多人对AI的“终极担忧”,怕AI失控,怕人类被替代。
任正非的回答很实在,没有说“绝对不会”,也没有说“肯定会”,而是基于现实给出了判断:他也不知道AI的技术边界在哪儿,但至少三十年之内,“AI自我再造”是不可能发生的。
为什么这么说?他解释了两个核心原因:
第一,AI的“核心能力”是“学习人类的数据”,而不是“创造全新的东西”。比如AI能写文案,是因为它学习了大量人类写的文案;AI能画画,是因为它学习了大量人类画的画。它没有自己的“意识”,不会像人一样“突然想到一个全新的点子”,更不会“主动想‘再造’自己”。就像现在的AI能设计芯片,但它设计的芯片,本质上还是基于人类已经掌握的芯片知识,不会凭空创造出“人类完全不懂的芯片技术”。
小主,这个章节后面还有哦,请点击下一页继续阅读,后面更精彩!
喜欢大白话聊透人工智能请大家收藏:(m.zuiaixs.net)大白话聊透人工智能醉爱小说网更新速度全网最快。