小伙伴关心的问题:白中石:未雨绸缪,稳妥应对ChatGPT可能带来的三大认知安全风险,本文通过数据整理汇集了白中石:未雨绸缪,稳妥应对ChatGPT可能带来的三大认知安全风险相关信息,下面一起看看。

白中石:未雨绸缪,稳妥应对ChatGPT可能带来的三大认知安全风险

近日火爆全网的ChatGPT ,是美国“开放人工智能研究中心”(openAI)研发的聊天机器人程序。作为人工智能技术驱动的自然语言处理工具,它能通过学习和理解人类语言而与用户进行对话和互动、像真实人类一样来聊天交流,甚至能完成外语翻译、撰写文案等任务。ChatGPT在概念上来说并不新颖,但因其相较同类产品在技术上有突破,质量更高、表现更好,似乎无所不能,所以引起了广泛关注。

网络流传着ChatGPT的“小品”,例如它替学生完成的作业、一些领域的论文,甚至政客的演讲稿;它的用户数量极速膨胀,甚至有国内多款山寨版ChatGPT火速出现借机生财。但若静心观察ChatGPT的“作品”,会发现人们关注点的本质并非来自这些“作品”如何“高明”、有何“突破”,而是“并不离谱”。相较其他同类产品,ChatGPT更“像”人。

一、围绕ChatGPT的关注事项排序与具体行动排序

政治工作宜保持理性、紧抓本质。站在政治安全的视角看,以ChatGPT为代表的人工智能技术和平台本身不是威胁,潜在威胁来自于实际控制它的人将其用于何处。当今中国对技术和创新抱有极大热情,没有谁能让我们重归封闭和落后;我们同时也对阴暗与侵犯保持极高警觉,不会再被愚弄和奴役。

一件事发生后,针对这件事要么不做动作,只要做动作,需要做的事有很多,应对宜有板有眼。围绕ChatGPT,对于一个有战斗力的 *** 来说,关注事项排序宜为:一是我们有没有自己的ChatGPT、开发到了什么程度;二是这个东西有什么用、可以怎样用;三是如果敌对势力借它伤害我们,会造成什么威胁。具体行动的排序宜为:一是理清它对我政治安全可能造成的威胁;二是研究我们使用此类工具对敌威慑和打击的可能方式;三是围绕自身需求,掌握中国有关技术和产品的开 *** 况,合理引导和促进国内有关工具的开发。

二、敌对势力利用ChatGPT可能给我带来三大风险

第一,利用“信任矛盾”制造“认知地震”。

人类对机器存在“信任矛盾”,以下两个例子可阐释。

例一,当你在计算机中输入“1+1=”,看到计算机显示“2”时,与你听到别人说“1+1=2”的感觉不同,特别当你把说话人和某种身份联系上时,例如家人、同事、领导,或者数学家、哲学家、政治家,不同的人说出的话,听话人反应也不同。面对人和机器都能回答的数学问题,我们往往倾向认为机器给出的答案更准确。

例二,当你在人工智能聊天对话框中输入“幸福是什么”时,机器的答案可能不如亲人、朋友、同事的回答对你影响大,即便二者答案相同,你可能也只会把机器讲的当“参考”,却更有可能把人讲的当“答案”。面对感性问题时,即便机器也可以给出结论,我们可能更相信人的回答。

创新和变化往往也会带来风险和威胁,伴随以ChatGPT为代表的人工智能工具愈发完善,对人类思维和感情的学习、模仿愈发深入,其可以做的事也越来越多。认知和行为是相互影响的,当人们越来越多使用人工智能工具,且在越来越多的领域依托人工智能工具获得满意的“答案”后,在人的认知中,机器给出的回答究竟属于“参考”还是“答案”,在一些领域会变得愈发模糊——过去,大部分人不会认真向机器寻求“中国适合哪种制度”的答案,或仅会把机器给出的回答当“参考”,但当人向机器提出更多复杂问题、并把机器的回答当“答案”时,敌对势力可能将人工智能武器化,对我认知领域发动攻击。

第二,利用“个性化服务”制造病毒化的虚拟意见领袖。

人们在同一个电视频道、同一份报纸、同一个门户网站上看到的内容是一致的,但群体可能对同一个宣传论点有支持、反对、质疑等不同反应。舆论宣传工作一直在围绕这种博弈做取舍。ChatGPT则可以依托自身平台,更敏锐的抓取舆论关注事项,较为先进的学习与模仿机制又可令其围绕某一个主题、针对不同群体、使用不同风格的语言和表达习惯与人互动。可以说,这是人类历史上第一次接近实现在大众传播中围绕同一主题使用不同方案的“一对一”宣传。

例如,如果实控人为ChatGPT设定一个“中国 *** ”的宣传和渗透主题,它可以通过用户的使用记录、搜索偏好、语言习惯将用户分为诸如“激进”“理性”等类型,然后分别用不同的话术和内容对用户进行引导,完成同一主题下的渲染任务。与此同时,ChatGPT不仅可以向人学习,还可以在人的帮助下“自学”。例如,面向数以万计的各类用户,虽然会有同等数量的个性化交流方案,但ChatGPT可以挑选其中具有共性的、获得用户响应率较高的逻辑和片段,主动投放到更大的用户范围中去,进一步增强自身的战斗力和用户的粘性。

在此基础上,具有社会影响力和组织力、与 *** 对抗的意见领袖,依托ChatGPT可以不再以真人的形式存在,而是被敌对势力以符号化的方式设计出来,其形象可能是一个影视剧人物的再加工,或是某种具有一定含义的标志。其形成初期可能会由境内外的敌对势力进行运作,最终目标是推动受众形成一种“网络习惯”,吸引意见群体以其名义在网络发声,并像病毒一样在网络世界各个平台传染扩散。与真人或实际团体不同,暴力机器没有办法同没有历史背景和国籍民族,没有生活污点和弱点缺陷的虚拟人物或符号作战,当一种潮流和习惯在网络形成,现实生活中去中心化的社会运动也就具备了发育的土壤和条件。

西方电影 《V字仇杀队》讲述了在一个平行时空里的故事:纳粹赢得二次世界大战,英国沦为殖民地,一名自称“V”的蒙面怪客处处与 *** 为敌,一名少女被怪客拯救后,便与他一同挑战恶势力的故事。故事中的“盖伊·福克斯面具”,搭配以“你是要当一辈子的懦夫,还是一秒钟的英雄”这一煽动性的短语,就曾在包括中国在内的各国网络中形成风潮。最先这样做的人也许并没有构建完善的行动纲领和步骤规划,但已经事实上进行了打造虚拟意见领袖的尝试。而ChatGPT若被用做此种用途,更可为虚拟意见领袖的产生和发育提供条件。

第三,利用“快速复制”制造规模效应。

一位优秀的科学家,可以通过传授知识与思考方式,培养更多的科学家或相关从业者,但这需要时间,而且有成材率的客观现实。各行业中越是顶尖的群体,规模越小,甚至会成为个体,例如优秀的科学家有很多,但牛顿、爱因斯坦、麦克斯韦、拉瓦锡不可复制,即便他们倾其一生,所能教授的学生也有限。在政治和宣传领域也是如此。但人工智能却可以在大样本实践中挑选战斗力顶尖的个体进行复制,程序的复制是很快的,甚至可以瞬间完成,短时间内制造超过人类人口总数的复制品也不是难事。假如此项工具仅掌握在敌对势力手中,那我们的网民在网络空间面对的将是数量几倍于己,同时“身经百战”、投其所好的虚拟“理论家”,由此所带来的风险和挑战是巨大的。

例如,近日有国内智库刊文分析ChatGPT作为出类拔萃的人工智能工具将如何在未来军事领域发挥颠覆性作用、增强军事情报和决策,甚至为下一代作战规划具体方案云云。此文被不少社交媒体用户转发,笔者读后的感觉是“乏善可陈”,但没觉得有何“不妥”。关键在于,笔者后来发现这篇文章原文出自境外的一个技术类博客,博主在文末承认“这篇博文的40%就是ChatGPT写的”。国内的智库是出于“疏忽”还是出于“博眼球”而刊发这篇文章,笔者难以知晓,但将这个新鲜的小故事与上述威胁结合起来,更证明新的挑战已经来到眼前。

三、应对建议

针对前文所述的潜在威胁,中国宜以战略高度重视、引导、促进人工智能领域的研发和应用。我们不一定会把其作为武器先发制人,但就像原子弹和氢弹,手里没剑和有剑不用,不是一回事。具体建议如下:

一是针对敌对势力可能利用“信任矛盾”制造认知地震的处置建议。不掌握在中国手上的“人工智能”产品、工具,要始终把准“人工”二字。打破“信任模糊”的核心在于打破“认知模糊”,中国人当然可以使用国外的人工智能产品和工具,但我在有关立法、应用、宣传领域,强调“人工”的概念要始终盖过“智能”的概念,要让群众心里绷紧一根弦——人工智能工具也许“像”人,但不是人,而且它背后的确有人在控制它。

二是针对敌对势力可能利用“个性化服务”制造病毒化的虚拟意见领袖的处置建议。有关“病毒化”的特质,最有效的应对举措是阻断传播链。健康的ChatGPT及其同类产品可以进入中国,但有关部门要保持随时对其“可切断”的能力:在技术上留有“关停按钮”仅是其一,更重要的是避免大群体用户产生严重依赖,例如其业务和功能不可野蛮发育,如果其想在中国开通即时通讯、线上支付、水电费缴纳一类看似“便民”的功能,如果其想成为中国各大高校和科研院所的某种“签约文库”和“资源平台”,我们就该慎重考虑它的目的,以及实现的可能和方式——让中国的大群体形成依赖,是“为非作歹”和施加政治压力的前置条件。

美国媒体会说我们是“保护主义”,保护“微信”和“支付宝”,但实际中国的格局大的多,我们保护的是涉及国家安全和社会稳定的“防御能力”,是有关政治的“切断能力”。与此同时,“个性和自由”不是无法无天,而有清晰边界。中美两国都在依据本国实情管理和规范本国的社交媒体和网络平台,ChatGPT一类的人工智能平台,当然也不能是法外之地,哪些可以聊、什么不能做,宜有具体的管理导向和配套举措。

三是针对敌对势力可能利用“快速复制”制造规模效应的处置建议。中短期看,上文所述的“保持切断能力”可以解决这个问题,而以长线思维,中国宜围绕“人类是否可以允许人工智能自我修复或复制”的概念做文章,对敌实现“降维打击”。是否可以允许层级较高的人工智能修理坏掉的同类、制造新的同类?这其实是一个非常值得重视的课题。阿西莫夫在《我,机器人》的引言中提出了《机器人学的三大法则》,成为当今广为传播和被接纳的概念:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管;

机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。这其中存在一个“不是问题的问题”:当机器人不认为自我“繁殖”或说复制这件事本身对人类是一种危害,且人类没有下达不可如此的命令,那就没有什么可以阻止机器人去这样做,如果机器人把自我复制当作保护自己生存的方式,它们就会主动这样做。

“不是问题”是因为,这在理论角度可以解决,因为人类可以随时下达停止复制的命令。“是问题”在于,在实践领域不是如此:所有人类大集体并不只由一个领导集体来领导,当某个领导集体下达停止复制的命令时,一定会有领导集体允许自己的机器人进行复制,就像中国坚持不首先使用核武器,但有国家一直或明或暗的坚持“先发制人”一样。在此方面中国宜坚持“两条腿”走路,首先自己要研究和掌握人工智能在软、硬件领域自我复制的这种技术,并在可控形势下应用这种技术;

同时通过制定相关法律及规定,明确要求外国的人工智能产品进入中国,必须剥离自我复制的功能。现在距离高层级的人工智能在软、硬件领域自我复制还有时间,中国还宜抓住真威胁产生之前的时间窗口,在国际舆论场中引导民众意识到并重视“允许机器自我复制”这件事的严肃性和复杂性。自己下大力气突破有关技术和应用的同时,对国外在此方面的研究和突破设置门槛。

本文成稿之时,笔者看到手机弹出新闻说“百度、阿里、字节、腾讯等巨头齐聚,中国版ChatGPT争夺战打响”。国外ChatGPT从玩具进化到工具的过程中,我国已在奋起赶超。打起精神、战胜挑战、只争朝夕!走到今天,中国早已不是“你有狼牙棒、我有天灵盖”,我们自己的同类工具,可以期待、值得期待。

注:本文作者为“秦安战略智库”核心成员白中石,为本平台原创作品,新的一年,祝愿大家携起手来、战胜疫情、遏制霸权,一起走向更加美好的未来。

更多白中石:未雨绸缪,稳妥应对ChatGPT可能带来的三大认知安全风险相关信息请关注本站,本文仅仅做为展示!