三、应对社会影响的关键策略
大模型带来的好处很多,但也有风险(比如有人失业、模型出错)。要想用好大模型,降低风险,得从“教技能”“定规矩”“改观念”三个方面入手,形成一套应对方法。
1. 技能培训层面:教大家“会用模型、能适应新工作”
不管是被替代的岗位从业者,还是学生,都需要学新技能,才能适应大模型时代的工作和学习。这需要政府和企业一起发力:
- 针对被替代的从业者:推出“转岗培训计划”。比如数据录入员,教他们学“数据可视化分析”——怎么用大模型把数据做成图表,再分析图表里的问题(比如“这个月销量下降是因为价格太高”);基础客服,教他们学“复杂客诉处理”——怎么用模型梳理客诉的原因(比如“客户投诉是因为物流太慢”),再给出解决办法(比如“联系物流公司加急,给客户补偿优惠券”)。学会这些技能,就能转到更高阶的岗位。
- 针对学生:把“AI素养教育”放进中小学课程。比如教小学生“怎么辨别模型说的对不对”(比如模型说“太阳绕着地球转”,要知道这是错的);教中学生“怎么用模型辅助学习”(比如用模型整理历史知识点,而不是直接抄模型的答案)。从小培养学生“合理用AI”的能力,避免以后过度依赖。
2. 制度规范层面:定好“规矩”,防止模型乱用
大模型用得好是帮手,用不好就可能出问题——比如有人用模型生成假新闻、医疗模型误诊了谁来负责。所以必须出台法律法规和监管措施,定好“游戏规则”,让大家知道“什么能做、什么不能做,出了问题找谁”。
先明确“责任归属”:避免出事后“互相甩锅”
现在很多场景下,大模型出了问题没人担责,就是因为没说清楚“责任在谁”。未来要重点明确两类核心责任:
- 第一,AI生成内容的知识产权归属。比如你是设计师,用大模型生成了一幅海报初稿,又花了3天时间修改细节,最终的海报版权该归你,还是归提供大模型的公司?要是没明确规定,公司可能说“初稿是模型生成的,版权归我们”,你可能说“我改了这么多,版权该归我”,很容易闹纠纷。以后得出台规则:比如用户提供了明确需求(比如“要国潮风格的鞋子海报”),还对模型生成的内容做了实质性修改,最终作品的版权就归用户;如果完全是模型自动生成,用户没做任何修改,版权可能需要和模型公司协商分配,避免扯皮。
- 第二,医疗、教育等关键领域的责任认定。比如某患者用了医疗大模型的诊断建议,结果因为模型误诊耽误了治疗,责任该谁担?是医院(用了这个模型)、模型公司(模型有问题),还是医生(没核实模型建议)?以后得按“过错程度”分责任:如果模型公司没告诉医院“这个模型没经过临床验证”,那公司负主要责任;如果医院明知模型有风险还用来诊断,医生也没结合临床经验复核,那医院和医生也要担责。这样才能倒逼各方重视模型的安全性,不敢随便用。
再建“监管平台”:实时盯着模型的“一举一动”
光有规则还不够,得有人盯着大家有没有遵守规则。未来需要建立“跨部门监管平台”——比如由政府的科技部门、市场监管部门、卫生部门(管医疗模型)、教育部门(管教育模型)一起合作,实时监测大模型在各个领域的应用情况。
举个例子:如果有企业用大模型生成虚假的保健品广告(比如声称“吃了能治癌症”),监管平台能通过技术手段监测到这些广告内容,然后通知市场监管部门,及时下架广告并处罚企业;如果某学校的教育模型,给学生推荐的学习内容有错误(比如把历史年代写错了),监管平台能发现后,要求模型公司赶紧修改内容,还会提醒学校暂时停用这个模型。
这种监管不是“一刀切”不让用模型,而是“有问题就纠正”,既保证模型能正常发挥作用,又防止它“乱搞事”。
还要管“数据安全”:不让用户信息被滥用
大模型要想聪明,得用大量数据训练;在使用过程中,也会收集用户的信息(比如你用模型写报告,会上传公司数据;用医疗模型,会输入自己的病史)。如果这些数据被泄露或滥用,后果很严重——比如公司数据被竞争对手拿到,会损失惨重;个人病史被泄露,可能会被诈骗。
所以制度规范里必须包含“数据安全”的要求:
- 比如模型公司收集用户数据时,必须明确告诉用户“要收集什么数据、用来做什么”,用户同意了才能收集;
- 收集到的数据必须加密存储,比如用专门的技术把数据“锁起来”,就算被黑客攻击,也看不到真实内容;
- 模型公司不能把用户数据卖给第三方,比如不能把你的病史卖给保险公司,让保险公司以此为由拒绝给你投保。
本小章还未完,请点击下一页继续阅读后面精彩内容!
喜欢大白话聊透人工智能请大家收藏:(m.zuiaixs.net)大白话聊透人工智能醉爱小说网更新速度全网最快。