AI安全这破事,连老周都坐不住了
听说最近AI安全成了大佬们聊天的主题,就连360的周老板都出来发声了。一方面是AI带来的各种超厉害的应用,另一方面是随时可能出问题的安全隐患,这年头连机器都学会耍两面派了。
安全大模型是个什么鬼
老周讲要“以模制模”,这话听起来好似绕口令,仔细琢磨,就是用人工智能去对抗人工智能,跟武侠小说里以毒攻毒是一个路数,只是这次打架的主角变成了代码跟算法,围观的人连热乎瓜子都嗑不上 。
360搞安全搞了十年,砸进去300亿,攒下一堆数据,终于憋出个大招。这个安全大模型就如同AI界的保安队长,专门盯着其他AI,不让它们干坏事。目前它已经在银行、学校这些地方上岗,估计很快就能看到它和黑客AI在线对喷的精彩场面。
漏洞比女朋友还难搞
系统漏洞这东西,比前任难搞多了,你压根儿不知道它啥时候会突然冒出来坑你,特别是AI系统,稍不注意就被黑客当成提款机用,去年有个公司数据库被扒得精光,损失大得能买下整个小区的学区房。
供应链攻击更狠,好比外卖里被放了让人拉肚子的药。你本以为买的是正规的AI产品,结果打开后发现全是后门。如今就连买个智能音箱都得仔细查祖宗三代,就怕它半夜背着人偷偷给黑客开直播。
安全联盟比相亲群还热闹
360带头弄了个大模型安全联盟,拉拢了好些高校和企业。这情形跟过年相亲没啥两样,只是大伙聊的不是彩礼,而是怎样防止AI造反。听说已经有几个实验室在搞AI版的防弹衣,专门整治各种AI不听话 。
联盟的成员全都是技术宅,每天都在琢磨如何让AI乖乖干活。最近他们在研究给AI安装一个“良心芯片”,据说在测试阶段就把AI弄自闭了,如今见到人类就主动询问要不要帮忙写代码。
监管这事比丈母娘还难伺候
各国都在进行AI监管,相关规矩数量众多。管得太宽松,AI会肆意妄为。管得太严格,创新将被直接扼杀。老周表示可参照互联网早期的“避风港原则”,其含义是给AI犯错留出一定空间,毕竟人都有行事冲动欠考虑的时候。
就说大模型老是胡说八道这个事,它虽说容易误导人,可搞科研的却觉得这是个优点。毕竟能瞎编出新药分子结构的AI,比那些只会背书的家伙厉害多了。现在有些实验室就靠着AI的想象力混日子,跟买彩票盼着中大奖一样 。
创新和安全的跷跷板
安全和发展的关系,就如同体重与美食的关系,二者始终处于冲突状态。老周声称要找到平衡点,这话讲起来容易,实际操作起来,其难度远超在火锅里捞金针菇。当下,那些负责制定 AI 标准的人,头发都快被薅光了,目的就是要划出一条线,这条线既能防止勒死创新,又能防范住风险 。
某科技公司近来被监管处罚得都懵圈了,随后就利用AI搞出了个能自动交罚款的系统。这一番操作让监管都不知所措,最终只能暗自点赞。看样子在AI时代搞监管,得学会跟技术玩捉迷藏。
说到这儿想问下各位,你们觉得AI最应该被监管的是啥功能?是能随意生成明星换脸视频吗?还是会在半夜偷偷帮你改代码?