|  站内搜索:
网站首页 > 环球聚焦 > 深度评析 > 阅读信息
对话光宇:不畏浮云遮望眼——意识形态工作者眼中的AI与AI热
点击:  作者:青华九变    来源:昆仑策网【作者授权】  发布时间:2024-03-06 09:10:51

 

1.jpg
受访者:闫光宇
采访者:青 橙
鸣谢:王小鲲、袁岚峰、墨子沙龙

访谈精彩内容摘录

 

舆论的集中关注与讨论从来都与媒体控制者的意愿有关。
        我觉得当年维勒人工合成尿素的意义要远大于阿法狗大战柯洁,但现实中没有几个人知道维勒。

我很希望看到基于人工智能的讨论,但应该是充分的、深入的和广泛的讨论,尽可能让每个人了解基本事实的讨论,最起码让社会各级决策者都了解基本事实的讨论。

以某些生成内容类人工智能(AIGC)为例,它本身虽然没有意识形态,但拥有它的人有价值观,写程序的人有价值观,训练它的内容有价值导向,它发布的内容自然就有了某种价值倾向。因此,这样一种人工智能并不是人畜无害、没有立场、坚守客观的内容生产者,而是基于某种价值观的内容生产机器。
自我意识这个概念在不同领域意义不同,我们不如把自我意识替换成主观、认知和自由意志。这样更容易理解

        
机器才是资本家最亲密的战友。
        诞生自我意识,意味着不可控。人比牛、马不可控,牛马比机器不可控,资本家想要的是听话的、功能更强大的、用途更多的机器,而不是有自我意识的主体。从某种意义上看,工业革命本身就是为了摆脱这种不可控、不确定性。
        既然人工智能目前没有主体性,那就是一个机器。

        如果真的有全球联网、算力强大、自我进化并且拥有自我意识的强人工智能诞生,那就是科幻小说中描述的人类文明的灭亡之日。那意味着全知全能的主体诞生,意味着造了一个“神”出来。这个“神”的价值观最初可能会由我们塑造、受我们影响,但我们不能确定未来会发生什么。而且它一旦出世,就意味着人的主体性地位的丧失,变成它的附庸和奴仆。

        ChatGPT也好,Sora也罢,是属于人家的生产资料,人家凭什么让你无偿使用?或者廉价使用?你想想我们在芯片等领域遭遇的事情。
如果把某个内容生成人工智能比作一门大炮,那就是一门永远无法扭转炮口的大炮,也是一门永远无法缴获的大炮。它基于的价值基础就是它炮口的朝向,你每使用一次,就会发射一枚符合其朝向的炮弹。而且,你用它,它就担负着你的生产任务,就捆绑着你,而且它背后的主人也会知道你在干什么,同时还会教育你该怎么干。

        让中国的各行各业和ChatGPT互联互通、发挥中国的人口红利、让ChatGPT训练师成为下一个热门职业……这是幼稚的,一厢情愿的,缺乏总体安全观的意见。
        我们要有基于我们价值观的类似于ChatGPT这样的内容生产类通用弱人工智能。
        我们的价值观就是实现每个人的自由而全面的发展。

        无论从基于未来的生存角度还是发展角度来看,制造一台基于我们价值观的、强大的通用弱人工智能都是我们必须要去做的。
如今,这种通用弱人工智能,某种意义上对内容的生产总量是无限大的,速度是无限快的。在这样一种内容覆盖之下,我们的内容将被冲击和稀释,我们的价值观很难守得住。
交流是相对于国与国之间的,是相对于人与人之间的。价值观之间没有交流,是东风和西风之间的关系。而且承载价值的内容数量不对等,也根本不是交流,而是单方面的冲击和碾压。价值也好、文化也好,不会单独存在,只能依靠内容存在在这世界上,内容的总量上不来,内容的生产力相对低下,就谈不上推广。 

一切相信群众,一切依靠群众,只要能走群众路线,这个通用人工智能就不难。
        目前只有我们国家有这样的群众基础、经济基础、意识形态基础和组织基础。

        商汤科技发布的关于汤晓鸥教授的视频,令人感动,但本质上是在制造虚假内容。
我们人的精力、注意力是有限的,在当代的今天,每天接触的信息已经很多了,如果再有由人工智能生产的仿真视频成批量的进入我们的视野,我们将分不清真假。因为即便我们有能力通过求证辨明真假,我们也没有精力对海量的信息进行批量的辨别,我把这种现象叫做“信息污染”。

尽快立法,禁止针对历史人物的真实形象进行模拟,对人工智能生成的视频、图片进行明确标注。

        我担心的可太多了,担心我们的领导干部没有建立基于人工智能,特别是内容生产类人工智能的完整认知,被有心人忽悠;担心人民群众被人工智能批量生产的虚假信息、低质量内容所包围;担心敌对力量利用人工智能批量生产虚假信息、政治谣言、抹黑内容,制造思想混乱;担心相关政治力量利用人工智能批量生产基于局部真实的内容,人为制造片面认知,操纵网络思潮,等等。

        某种意义上说,人工智能具不具备自我意识其实并不重要,重要的是它对生产力的提升有多少作用。
        人工智能本质上是机器的升级,或者更准确的说,是生产资料的升级。
        人工智能越发达,人就可以不劳动,也能享受人工智能的生产成果——这是美好且幼稚的幻想。
        当资本家能够利用人工智能单独完成生产,劳动者又哪来的生存价值?


        伴随着时代的推进,无论是国家还是个人,我们比以往更需要勇气和定力,而获得这一切的唯一方法就是“多想”。


2.jpg
【毛泽东1939年为《新中华报》题词:多想】

 

 

青橙:就在前不久,也就是美国当地时间2024年的2月15日,美国的OpenAI公司发布了他们旗下的首个文生视频大模型Sora,并引发广泛关注与热议。我们看到有很多的新闻媒体和自媒体在看到Sora制作的几段视频后,大受震撼,惊为天人,认为是“里程碑”,是“划时代”的,认为“未来以来”,更有甚者,将Sora的成就作为中美科技竞赛中“美国胜利”的证据,并对中国进行一轮嘲讽,您怎么看待这一现象?

 

光宇:您说的是Sora的发布,还是大众对Sora的热议?

 

青橙:这有什么区别么?

 

光宇:有的,我们可以先聊第二个。事实上人工智能并不是新鲜事物,它伴随着计算机的产生而产生(狭义、实体),对它的研究和应用已经有大几十年的历史,我们目前已经经常使用的指纹识别、人脸识别、语音识别、语言翻译、算法推荐等等,目前已经有阶段性成果的无人驾驶、医学图像处理、智能家居等等都是人工智能在我们日常生活中的应用。而近几年来对于人工智能的大众化热议,也就是ChatGPT推出之际和Sora的发布之后这两个大的点较为集中。这很符合常理。一方面,OpenAI的成就和能力确实令人惊叹;另一方面,舆论的集中关注与讨论从来都与媒体控制者的意愿有关。

 

青橙:您是说对人工智能的集中关注与媒体的意愿有关?

光宇:我没有证据,只是猜测。比如在舆论的体感上,对Sora的讨论就比较不匹配。

青橙:舆论的体感是什么?是我们个人对舆论的感受么?

光宇:是的,冷暖自知的那种,注定是因人而异的。

青橙:您继续。

光宇:简单说就是,在我的理解中,ChatGPT的意义要大于Sora,虽然Sora的本意是“世界模拟器”,但它明显还达不到那个程度,因此,就这一点而言ChatGPT的体感应该更大,但在实际的舆论上,ChatGPT的体感却要比Sora小不少。

青橙:嗯嗯。所以你猜测是刻意推动?或许是因为Sora更易被人接受和讨论呢?

光宇:您说的有道理的。一段由人工智能制作的视频从来都比一段由人工智能编写文字内容更令人震撼。但这些都是次要因素。所以我坚持我的猜测,就像当初“深蓝”挑战卡斯帕罗夫,阿法狗挑战李世石、挑战柯洁,举世瞩目。

青橙:您是说这不足以举世瞩目?

光宇:我觉得当年维勒人工合成尿素的意义要远大于阿法狗大战柯洁,但现实中没有几个人知道维勒,也没有人热衷于讨论人类第一次合成有机物的意义。

青橙:您这有点强词夺理。

光宇:这只是个比喻。

青橙:那为什么要推动呢?

光宇:因为有人想让你知道,那些不想让你知道的,你很难做到关注,更遑论了解;而那些想让你知道的,所以你就能听到,就能讨论,讨论可能没有结果,但讨论之外一定会有结果。

青橙:您知道我不是问这个。

光宇:如果我再往下回答就是诛心了,很难令人信服,还不如不说。不过我可以讲一段历史。那是1956年,塞廖尔的象棋程序挑战世界象棋冠军赫尔曼,结果赫尔曼全胜,之后人们开始讨论人工智能的能力甚至是真实性,一些不看好人工智能的学者甚至发布论文,炮轰人工智能是“海市蜃楼”,这导致了英美等国政府开始大幅削减人工智能方面的经费,于是在那十几年,人工智能的研究举步维艰……当然,我们不能说这是因为一次象棋比赛失败导致的结果,人工智能在当时确实遇到了一些瓶颈,但是新闻宣传、人心和经费之间的关系,我们要看到。

青橙:……(撇嘴),那您是很讨厌这种关于人工智能的讨论了?

光宇:并不是。相反,我很希望看到基于人工智能的讨论,但应该是充分的、深入的和广泛的讨论,尽可能让每个人了解基本事实的讨论,最起码让社会各级决策者都了解基本事实的讨论。因为对于绝大多数人来讲,对人工智能的认知状态是“日用而不觉”或者“日用而不知”的,如果一提到“人工智能”这个词,大家就觉得“高大上”,就觉得是科技前沿的、艰深的、难懂的学问,这会让大众产生带有神秘感的震撼、膜拜、恐惧等情绪,进而产生认知上的偏差。所以我不喜欢产生片面认知的讨论、故弄玄虚的讨论、顾左右而言他的讨论。

青橙:难道人工智能不是科技前沿,其成就不值得我们赞叹么?

光宇:首先人工智能是个大的概念,前面已经说过了,人脸识别、指纹识别、医学图像处理等等都属于人工智能,甚至你打游戏时遇到的模拟对手,也属于人工智能,所以,并不是所有的人工智能都是科技前沿。其次,即便是处于科技前沿的人工智能领域,也并不“远人”,也就是远离我们的生活,我们身上衣服中的芳香烃也是科技前沿,我们手机中的芯片也是科技前沿,我们每个人学习的专业不同,不需要知道芳香烃是怎么合成制作的,也不需要知道芯片是怎么具体刻画的,但我们要知道芳香烃是石油提炼的,芯片是用沙子制作的,这些大致的原理和路径要明白。科技工作者比我们更有天赋和能力去从事这一份工作,但并不意味着我们通过学习,依然弄不弄白其中的道理。相反,有些生活中的科技前沿我们一直没弄明白,比如自行车为什么骑起来就不倒,目前依然没有完全明白……

青橙:自行车原理到现在居然没有弄明白?

光宇:是的,相对合理的解释是车头的纠偏机制、陀螺效应、离心力原理等,但比较复杂,依然需要进一步的研究和论证。这不重要。重要的是,难道我们没弄明白就不骑了么?难道我们没弄明白就要对着自行车三拜九叩,顶礼膜拜?

青橙:您希望大众弄明白。

光宇:是的。确切的说是我希望大众有正确的认知,我从不否认人工智能技术对世界进行改造的意义,正因为如此,大众需要进行正确的认知,而不是震撼、恐惧、畏难、焦虑,更不是把科技和某些现象神秘化,进而膜拜。对科技的学习就像识字,就像背诵99乘法口诀,万丈高楼平地起,只要肯登攀,就能拥有相对正确的认知。

青橙:您在这事上是不是有点过于“理想化”或者“异想天开”?

光宇:我觉得我没有。新中国建立的时候,有80%多的文盲,你让文盲去参与政治生活,进行政治协商,这并不符合实际。相信在当年很多的时代精英也觉得让他们参与政治是一个特别难的事情,是“理想化”和“异想天开”的,但新中国坚信大众可以被教育的更好,坚信人人都可以有基本的参政能力,因此她发动了人类历史上最大规模的扫盲运动和政治知识普及运动,直到今天,普通人都有能力讨论国际局势,在这世界上也是极为少见的现象,这难道不是基于“认真”的胜利?基于“理想化”的胜利?我相信新中国的有这份气度和能力,否则怎么做到相信群众、依靠群众。

青橙:那么您对Sora的热议还有什么要说的么?

光宇:我想借您的平台也呼吁一下,我们的媒体在传播时能不能不单独使用“ChatGPT”和“Sora”这样的英文词汇,最好“翻译翻译”,按照Chat Generative Pre-trained Transformer意译也好,或者用“聊天机器人程序ChatGPT”“文生视频大模型Sora”这样的组合也罢,总之不要直接上来就一个英文单词或者一个英文缩写,这不仅是文化主权层面的问题,还涉及到受众因未知而产生的某种恐惧,和弥漫性的恐惧:焦虑等问题。

青橙:这很重要么?另外您对“文科生不配谈AI怎么看”?您是文科生么?

光宇:重要。首先我大学时的专业属于军事学,不属于文科。其次,“文科生不配谈人工智能”这样一种想法是错误的,这个世界上没有一个道理是人不能懂的,爱因斯坦作为专利局的职员,是正宗的“民科”,并不影响他发表相对论;钱伟长作为文史特长的文科生,并不影响他后来成为物理学家、科学院院士。你可以说某个人在某个时刻发表的某个言论是错误的,你也可以对他的错误言论和错误行为进行批判,但你不能说一个人是美学博士就不配讨论人工智能,拿人家学习经历说事,这充满了小知识分子的酸味,如果社会的舆论都充满了这种不知道从哪来的傲慢与偏见,我为此感到痛心。

青橙:我觉得您是在为您自己说话,您作为一名综合管理类的工作人员,从来没搞过技术,您觉得自己很懂人工智能么?

光宇:正如你刚才想要表达的意思,对于人工智能我是一个外行。我了解的也只是浅显的、粗线条的。但我们的老祖宗讲“君子以思不出其位”,我自认为是一名“意识形态工作者”,研究和推演人工智能带来的种种变化是我应该去做的事。


光宇:正如你刚才想要表达的意思,对于人工智能我是一个外行。我了解的也只是浅显的、粗线条的。但我们的老祖宗讲“君子以思不出其位”,我自认为是一名“意识形态工作者”,研究和推演人工智能带来的种种变化是我应该去做的事。

青橙:意识形态工作者?

光宇:是的。

青橙:意思是您研究和关注人工智能的意识形态么?

光宇:严格意义上讲,当前的人工智能还没有观念,所以也谈不上拥有观念的集合,也就是意识形态,但我明白你的意思,以某些人工智能生成内容(AIGC)为例,它本身虽然没有意识形态,但拥有它的人有价值观,写程序的人有价值观,训练它的内容有价值导向,它发布的内容自然就有了某种价值倾向。因此,这样一种人工智能并不是人畜无害、没有立场、坚守客观的内容生产者,而是基于某种价值观的内容生产机器。当然,我关注的不仅仅是这些,除此以外,我还关注人工智能会不会真的产生自我意识,人工智能会不会干扰人的认知,人工智能会不会替代相关行业和岗位,并对社会整体变革的影响等等。

青橙:我好像明白你的意思了,那人工智能会产生自我意识么?

光宇:这是个好问题、好入口,先聊完这个,才能往下聊。但是我必须说,就我所知,这个问题目前还没有答案。

青橙:那您比较倾向能还是不能呢?

光宇:要聊人工智能会不会产生自我意识,就得先聊什么叫意识,什么叫自我意识。一般而言,心理学将意识描述为一种人类特有的对客观现实的高级心理反映形式,是包括感觉、知觉、思维在内的复合认知活动。而医学上的意识,是指人的精神活动的清晰程度和清晰范围。而哲学上,则一般表述为与物质相对立的活动的结果。基于此,自我意识会更复杂,今天我们都聊不完。

青橙:那怎么办,您不用这么严谨吧,其实您应该懂我的意思,观众也懂。

光宇:怕挨骂,没办法,但更重要的是,我有更好的表述方式。所以我建议换个方式,我们不如讨论人工智能会不会有主观、认知和自由意志。这三个词不需要解释。

青橙:那有还是没有呢?

光宇:如果有人说,其实我们人也没有自由意志,你信不信?

青橙:这怎么可能?我想吃潮汕牛肉,就去吃,要别人管么?

光宇:事实上,有相当多的学者怀疑人的自由意志,比如你想吃潮汕牛肉,是你想吃么?有学者说了,如果是你肚子里的菌群想吃呢?而且,有一些脑神经科学的学者甚至坚定的认为人的自由意志不存在,他们认为你所有做的决定都是感觉过来之后,大脑各区根据你过去的经验进行综合计算的结果,由于大脑是电活动,而电活动产生的原因是可以追溯的,是符合物理化学规律的,所以所谓自由意志,其实都是一连串因果关系造成的,不是真正的自由,但是由于系统太复杂,参数太多,所以很难做出决定论的判断,得到不能预测的结果。因此他们认为自由意志是一种幻觉。

青橙:那您认同这种观点么?

光宇:不认同,这就很机械。而且这种观点大致源于神经科学家本杰明在1983年做的一项实验,实验中,他发现人在做出动作前的约0.35秒,会产生一种叫做准备电位的信号,这种信号表明大脑已经做好了动作的准,同时,在做出动作前0.2秒,人才意识到自己要进行。以此来证明自由意志并不存在。但这个实验并不周延,因为这个所谓的准备电位并不一定代表大脑已经做出了决定,如果只是表示大脑处于一种可以随时做出决定的状态呢。

青橙:是的。

光宇:所以以目前的发展状态,还不能妄下定论。而且,在哲学上,我们需要“主观”和“认知”存在,在伦理上,我们都需要一个拥有自由意志的主观存在,如果没有自由意志,那一些人杀人骗人做了坏事,就都可以不负责任,都可以说是因为过去受过伤害,没有接受好的教育等等,这就全乱套了。

青橙:那确实,但您是不是跑题了,人工智能呢?

光宇:图灵测试你了解么?

青橙:我知道,就是找一些人和黑箱对话,如果这些人在一定时间和范围内识别不出来黑箱里是人还是机器,就被认定为这个人工智能可以有意识。据说ChatGPT就已经通过了图灵测试。

光宇:大致是这样。但实际上,即便图灵测试通过了,也不能说这个人工智能有自我意识。

青橙:为什么?

光宇:你把这里的自我意识换成主观、认识和自由意志试试。

青橙:我好像明白了。

光宇:是的,图灵测试用来测试人工智能的计算能力可以,但也并不周延。比如,哲学家约翰·塞尔就提出了“中文屋”的思想实验。他说假设在一个屋子里有一个不懂中文的人,一本能够实现中文翻译的词典和足够的纸笔,当屋外的人通过唯一窗口传递进一张写着中文问题的字条后,屋内的人根据词典将其变成自己能理解的语言并回答,然后再将自己的回答翻译成中文并写在纸条上,然后传给屋外的人。屋外的人可能觉得屋内的人懂中文,但实际上屋内的人并不懂。

青橙:所以当我在和ChatGPT对话时,他虽然对答如流,但实际上他可能不懂,只是基于大数据的回应?

光宇:聪明的!它只是一段程序,基于大数据、算法和芯片的算力进行回应,而不是真正意义上的对话。即便它通过了图灵测试,也只能说明它做了看起来是有意识的反应,而不能说明它具有主观、认知和自由意志。

青橙:那您觉得人工智能是没有自我意识了?

光宇:起码目前没有。目前能看到的,在未来可能突破的方向,就是看看能不能用合成生物学的方法,复制神经网络,进而尝试可否创造出一个有机体的人工智能。但目前的状态是连神经元细胞都合成不了。

青橙:在计算机上就不能做到么?如果不断增大算力、改进算法,暴力模拟呢?

光宇:你说的这个“模拟”,人工智能领域通常表述为“复现”方式中的“实现”。比如你让ChatGPT写了篇论文,但它只是实现了这片论文,并不是真的懂这篇论文。因此,如果用你的话说,这种思路只是暴力模拟某种主体的行为,或者模拟某主体表现出的现象,而不是模拟主体本身。因此,这种思路更像是为了模拟鸟飞,而造了一架飞机。飞机比鸟飞的更高、更快、功能更多,更强大,但这种强大和自我意识可能并无关联。

青橙:那一些国内互联网的大佬为什么称ChatGPT是“通用人工智能发展的奇点和强人工智能即将到来的拐点”呢?

光宇:他为什么这么说我不知道,肯定有他的原因。但我必须说这是个错误的观点,ChatGPT还远没有达到通用人工智能和强人工智能的水平,当然是弱人工智能。但是ChatGPT拥有自然语言处理、问答、写作等多种功能,因此也不是专用人工智能,可以算是“通用弱人工智能”。

青橙:据说ChatGPT用了大约45TB的互联网文本数据、10000张A100的GPU,以及1750亿参数的大模型。怎么算“弱人工智能”呢?

光宇:一般而言,人工智能的强弱不是用复现的效果划分的,而是用复现的方式划分的。而不管是通用人工智能(General Artificial Intelligence)还是强人工智能(Strong AI),都是要有自我意识的。而ChatGPT没有,当然是弱人工智能。打个比方,我们人下棋,人工智能也下棋,不管其背后的原理如何,实现就好。这就是弱人工智能。下赢了柯洁也是弱人工智能。但如果人工智能是基于自主意识的,类似于人思考、推理、学习、决策的下棋,即便下不赢你我,都是强人工智能。

青橙:我还以为大佬是内行呢。

光宇:内不内行不重要,说真话才重要。

青橙:那网友们常说的制造硅基生命,实现机械飞升就是纯粹的笑谈喽?

光宇:这是科幻小说常常涉及的领域,而我们的科幻作家刘慈欣,也曾鲜明的表示,人工智能想获得自我意识,起码目前冯诺依曼体系下的计算机无法做到。而且一些相关科技领域的学者也表示,可能需要量子计算机造出来之后,再进行探讨。

青橙:那您的观点呢?

光宇:我的观点并不重要。

青橙:说说呗,我很好奇。

光宇:我可能比较保守。我觉得有机体的事还得有机体解决。需要等到我们合成生物学能够合成神经元、神经网络再看。而且即便合成了神经网络,也未必能顺利诞生自我意识。

青橙:太保守了吧。我看网上有传言,说人家美国的科学家已经在现有计算机体系上造出了具备自我意识的人工智能,这是谣言吧?

光宇:当然。恕我直言,即便是美国的科学家想研究,其背后的资本家恐怕也不需要这种拥有自我意识的人工智能。

青橙:为什么?

光宇:机器才是资本家最亲密的战友。

青橙:怎么讲?

光宇:诞生自我意识,意味着不可控。人比牛、马不可控,牛马比机器不可控,资本家想要的是听话的、功能更强大的、用途更多的机器,而不是有自我意识的主体。从某种意义上看,工业革命本身就是为了摆脱这种不可控、不确定性。

青橙:资本想要的是更听话、功能更强的飞机,而不是自由的鸟。

光宇:聪明!

青橙:有点不好意思。

光宇:资本最想要的,应该是强大的通用弱人工智能。事实上,如果真的有全球联网、算力强大、自我进化并且拥有自我意识的强人工智能诞生,那可真就成科幻小说中描述的人类文明的灭亡之日了。

青橙:为什么?人工智能和我们就不能和平共处么?而且未必看得上我们。

光宇:因为,那意味着全知全能的主体诞生,意味着造了一个“神”出来。这个“神”的价值观最初可能会由我们塑造、受我们影响,但我们不能确定未来会发生什么。而且它一旦出世,就意味着人的主体性地位的丧失,变成它的附庸和奴仆。

青橙:听起来确实不好。那为什么还有那么多人鼓吹人工智能拥有自我意识呢?

光宇:这我就不知道了。但是前不久,我在一个给政府机关出主意的座谈会上遇到一位资深学者,会议发言中,他惊叹于OpenAI在人工智能领域的成就,并试图做出推断:在人工智能技术爆发前,机器是人的延伸,人具有主体性;但人工智能技术在OpenAI取得阶段性成就后,机器或许就会具备这种主体性,成为新的主体,未来已来,如何如何……

青橙:对对,我也遇到一些学者,也是这个思路。

光宇:也许是为了让人觉得神秘、前沿,好让政府在政策和经费上对其做一些倾斜,或者树立自身高大上人设吧。虽说领导干部不一定都中招,但万一猫碰上了呢。

青橙:“猫碰”是啥?

光宇:字面意思。这不重要。


青橙:既然如此,那您觉得当前人工智能的发展也不是那么重要喽?

光宇:那不是,是相当的重要。为避免造成混乱。从现在开始,我们不再讨论人工智能的自我意识,也就是人工智能的主体性,也就是默认人工智能没有主观、认知和自由意志。既然人工智能目前没有主体性,那就是一个机器。无非是更加聪明的、人性化的、功能更加强大的机器。

青橙:嗯嗯。

光宇:机器这个词是不是听起来很low,比不得人工智能的高大上?但很遗憾,人工智能就是机器,而且,我们刚才也讲过,没有主体性的机器,不见得就不强大。你可以想象:24小时作业、不需要灯光,全面智能化的无人工厂;你可以想象,不需要氧气供应、防毒设备和交通工具、全天候作业,全面智能化的无人矿山;你可以想象,自动调控温度、光照,高度智能化的无人农田;你还可以想象,可以预判攻击,锁定目标,自主行动,躲避危险的机器军队;此外还有善于诊断和救护的医疗人工智能机器,善于运用大数据、直接操控实验设备的科研人工智能机器等等,特别是以提供内容生成服务的通用弱人工智能机器,没有一个是不重要的。

青橙:所以我们应该全面加强人工智能的研发?

光宇:是的。

青橙:我们难道不能直接用ChatGPT、Sora这样的人工智能么?

光宇:人家让你用么?

青橙:可以用的呀。

光宇:如果明天不可以呢?如果后天人家让我们拿资源、自由和尊严换呢?我们现在有个错觉,那就是仿佛我们已经认定人家造出ChatGPT就是为了服务人类的,且不说美国的态度,同不同意,OpenAI是人家资本家的,ChatGPT也好,Sora也罢,是属于人家的生产资料,人家凭什么让你无偿使用?或者廉价使用?你想想我们在芯片等领域遭遇的事情。

青橙:确实哦。

光宇:何况我个人,也不建议我们普通人使用ChatGPT,生成论文、评论、小说等等内容文本。

青橙:为什么?

光宇:我们之前说过,内容生成类人工智能(AIGC)本身没有意识形态,但拥有它的人有,写程序的人有,训练它的内容有,它发布的内容自然就有了某种价值倾向。因此,我们可以把它看成是基于某种价值观的内容生产机器。我们每用一次,就生成一次基于人家价值观的内容。打个比方,如果把某个内容生成人工智能比作一门大炮,那就是一门永远无法扭转炮口的大炮,也是一门永远无法缴获的大炮。它基于的价值基础就是它炮口的朝向,你每使用一次,就会发射一枚符合其朝向的炮弹。而且,你用它,它就担负着你的生产任务,就捆绑着你,而且它背后的主人也会知道你在干什么,同时还会教育你该怎么干。

青橙:但我看到有学者呼吁要让中国的各行各业和ChatGPT互联互通,还说要发挥中国的人口红利,让ChatGPT训练师成为下一个热门职业。

光宇:我只能说这是幼稚的,一厢情愿的,缺乏总体安全观的意见。

青橙:所以,您的意思是,我们要有基于我们价值观的类似于ChatGPT这样的内容生产类通用弱人工智能?

光宇:是的。

青橙:那我们的价值观是指?

光宇:实现每个人的自由而全面的发展。

青橙:不是很懂。

光宇:人民立场,人民至上,为人民服务。

青橙:这个很难吧。

光宇:一切相信群众,一切依靠群众,只要能走群众路线,这个通用人工智能就不难。而且历史和事实表明,只要指导思想正确,中国人民什么都能干,什么都能干好。

青橙:有点抽象。

光宇:听懂自然就听懂了。而且无论从基于未来的生存角度还是发展角度来看,制造一台基于我们价值观的、强大的通用弱人工智能都是我们必须要去做的。

青橙:我们必须要去做?

光宇:是的。一百多年前,是夷自海上来,架着坚船利炮,这坚船利炮,是武器,也是生产力的象征,本质上是工业革命的结果;一百多年后,是夷自网上来,带着各种应用工具,这个网和应用工具是生产力的象征,本质上是信息革命的结果;如今,这种应用工具升级到通用弱人工智能,直接和每一个人结合,和大数据结合,和价值观结合,某种意义上对内容的生产总量是无限大的,速度是无限快的。在这样一种内容覆盖之下,我们的内容将被冲击和稀释,我们的价值观很难守得住。

青橙:您这种思维很具有对抗性,就不能是交流么?

光宇:交流当然是正义的,我们也应该去维护交流的通畅性。但交流是相对于国与国之间的,是相对于人与人之间的。价值观之间没有交流,是东风和西风之间的关系。而且承载价值的内容数量不对等,也根本不是交流,而是单方面的冲击和碾压。因此,无论是出于对自身价值观的守护,还是寄希望于平等的交流,都需要我们至少拥有相当级别的内容生产类通用弱人工智能。

青橙:所以,出于想要推广中华文化的目标,也必须要去做喽?

光宇:是的,价值也好、文化也好,不会单独存在,只能依靠内容存在在这世界上,内容的总量上不来,内容的生产力相对低下,就谈不上推广。


青橙:明白了。那您如何看待人工智能的推进,特别是类似于ChatGPT、Sora等内容生成类人工智能所带来的种种变化呢?

光宇:这是个很大的问题,但作为意识形态工作者,我关注的也就是内容安全,引发的社会变革方面等等。

青橙:等等,内容安全刚才不是已经说了?

光宇:那只是一个方面,你觉得人工智能能不能批量生产虚假信息、虚假新闻、虚假视频?

青橙:当然可以,某些西方大国不是已经用AI制作的视频来干预大选了么。

光宇:是的,这还是属于恶意的制造虚假视频等内容的范畴。

青橙:您是说还有无意的,或者善意的?

光宇:是的。昨天商汤科技发布了一段由其人工智能制作的视频,视频中人工智能模拟其已故创始人汤晓鸥教授的形象,表演了一段脱口秀。可以说的是相当逼真。

青橙:这个我看到了,很感人啊。

光宇:确实很感人。但这段视频本质上是在制造虚假内容。

青橙:您太苛刻了吧。

光宇:也许吧,我们都知道汤晓鸥教授已经去世,人工智能并不是汤晓鸥,这些话也并不是汤晓鸥教授想说的话,而是视频作者想说的话,但形象上做的这么逼真,以后一定会有人把这个视频当成汤晓鸥教授的真人真事。

青橙:我明白您的意思了。

光宇:我们人的精力、注意力是有限的,在当代的今天,每天接触的信息已经很多了,如果再有由人工智能生产的仿真视频成批量的进入我们的视野,我们将分不清真假。因为即便我们有能力通过求证辨明真假,我们也没有精力对海量的信息进行批量的辨别,我把这种现象叫做“信息污染”。

青橙:好恐怖,那面对“信息污染”该怎么办呢?

光宇:尽快立法,禁止针对历史人物的真实形象进行模拟,对人工智能生成的视频、图片进行明确标注。

青橙:需要这么快,这么严厉么?

光宇:刻不容缓,这本身也是为了更好的发展人工智能所必须做的事情。而且最好不要鼓励人工智能生产的内容进入新闻领域。

青橙:怎么说?

光宇:这里的新闻领域是狭义的新闻采编,不包括广告、文化、艺术等领域的传播。人工智能的内容一旦进入新闻领域,不仅内容一定会有失真的风险,而且新闻人才将逐步减少直至丧失。

青橙:那人工智能的艺术作品呢?

光宇:人工智能哪来的艺术作品?

青橙:不是有人工智能的画展么,听说还获得了一些奖项。

光宇:艺术首先是人的创造,没有人、没有主体谈什么艺术,人工智能既然没有主体资格,哪来的艺术作品,不过是按需求绘制的图片,由人发现其中的美而已,你可以类比为“奇石”展。

青橙:那您是反对这样的行为喽。

光宇:是的,但我没有时间去反对这样的细枝末节。

青橙:那这方面您最担心的是什么?

光宇:我担心的可太多了,担心我们的领导干部没有建立基于人工智能,特别是内容生产类人工智能的完整认知,被有心人忽悠;担心人民群众被人工智能批量生产的虚假信息、低质量内容所包围;担心敌对力量利用人工智能批量生产虚假信息、政治谣言、抹黑内容,制造思想混乱;担心相关政治力量利用人工智能批量生产基于局部真实的内容,人为制造片面认知,操纵网络思潮,等等。

青橙:低质量内容?

光宇:是的,以写小说为例,人工智能目前还比不上真人,以后也很难比得上,但人家可以成批量的、飞速的生产固定套路的低质量小说,如果这种套路是基于心理学基础的“爽文机制”和“成瘾机制”,那就是劣币驱逐良币,不仅再难有高质量的作品,我们会讲故事的人也会越来越少,更关键的是,我们再难以从小说这样的文学作品中得到激励和慰藉。


青橙:这么一说确实挺严重的。

光宇:当然,这还只是一些不完全的推演。要知道,人工智能带动的是生产力的提升,而生产力的飞速提升势必带来全社会方方面面的变革。所以就这一点而言,人工智能具不具备自我意识其实并不重要,重要的是它对生产力的提升有多少作用。生产力提升的越多,变革的越大,这是生产规律决定的。我们能看到,在这一点上,资本是理论清醒且自觉的,他们早已看透了人工智能本质上是机器的升级,或者更准确的说,是生产资料的升级。作为资本家,就是要不断强化作为生产资料的机器的地位,不断弱化劳动者在生产中的重要性,只有这样,才能更好的将劳动者物化、机器化和奴隶化,便于其控制世界。

青橙:这个我好像听懂了,您是说人工智能应用越广泛,替代的人也就越多,普通的人也就越不值钱。好残酷,难道不是人工智能越发达,人就可以不劳动,也能享受人工智能的生产成果么?

光宇:在某些人讲的故事里是这样,但我必须说这是美好且幼稚的幻想,这种故事很有可能是有心人给公众的投喂的毒药。一般情况下,劳动者的地位是由劳动者因劳动所产生的价值决定的,假如劳动者不再劳动,又哪来的价值和地位?当资本家能够利用人工智能单独完成生产,劳动者又哪来的生存价值?

青橙:那怎么办?

光宇:唯一的出路就是人工智能特别是通用弱人工智能的公有和公用,劳动者就是生产资料的所有者、使用者和获利者。

青橙:您说的是我们国家么?

光宇:是的,目前只有我们国家有这样的群众基础、经济基础、意识形态基础和组织基础。

青橙:组织基础是指?

光宇:是的。

青橙:那可太好了。公有好理解,公用怎么说,那万一国外的人民群众想用怎么办?

光宇:低价优惠出售服务即可,但有一条,必须使用人民币购买。

青橙:但这毕竟是很遥远的事。

光宇:认真的话,其实并不遥远。

青橙:说回来,您觉得哪些行业容易被替代,哪些不容易被替代呢?

光宇:人工智能越难提供的产品和服务,越不容易替代。比如做一个饱腹的食物很简单,但做一份可口的美食并不容易;用按摩椅按摩很简单,但按的好并不容易;攒一台手机简单,但做一个体验感好的产品并不容易;写一个新闻消息简单,写一个好的评论文章并不容易,等等。

青橙:那您是希望青年人瞄着这个方向走么?

光宇:青年人怎么走,是青年人自己的事,而且我自认没有能力指导他们的生活实践,我要尊重他们的选择。

青橙:那您能否说一段话?给青年朋友们。

光宇:我没有那个资格给大家寄语。我只希望青年人能够健全认知,不要被别人口中的人工智能吓倒和带偏,也不要因为人工智能的推进而放弃学习,总之,不要被忽悠,仅此而已。《三体》里有一句名言,就是章北海的父亲反复叮嘱章北海的那句话,要“多想”,其实,这是教员同志在1939年为《新中华报》的题词:“多想”,伴随着时代的推进,无论是国家还是个人,我们比以往更需要勇气和定力,而获得这一切的唯一方法就是“多想”,在这里我和大家一起共勉吧。

青橙:好,谢谢光宇哥,今天我们就说到这里。观众朋友们如果有相关观点或者不同意见,可以评论区留言,谢谢大家!

参考资料:
@风云之声 人工智能相关内容
张军平《人工智能极简史》
郁慕明 《浅谈意识》相关视频
杨馥溪《人工智能会发生自我意识觉醒吗?》
吴    恺《对人工智能发展可能导致的若干问题之思考》
林命彬《哲学视角下智能机器在自我意识和行为意义上的突破》
李青文《科技伦理视阙下人工智能法律主体地位之否定——以机器能否具备自由意志能力为分析路径》
江    怡《对人工智能与自我意识区别的概念分析》
秦子忠《人工智能的心智及其限度——人工智能如何产生自我意识?》
赵汀阳《人工智能的自我意识何以可能?》
赵汀阳《替人工智能着想》
葛黎明《马克思意识理论视域下的人工智能解析》
宋春艳《镜像自我识别实验——类脑智能自我意识的本质及道德约束》
程承坪《论人工智能的自主性》

(来源:昆仑策网【作者授权】,转编自“观照大千”,修订发布)


【昆仑策研究院】作为综合性战略研究和咨询服务机构,遵循国家宪法和法律,秉持对国家、对社会、对客户负责,讲真话、讲实话的信条,追崇研究价值的客观性、公正性,旨在聚贤才、集民智、析实情、献明策,为实现中华民族伟大复兴的“中国梦”而奋斗。欢迎您积极参与和投稿。
电子邮箱:gy121302@163.com
更多文章请看《昆仑策网》,网址:
http://www.kunlunce.cn
http://www.kunlunce.com
责任编辑:红星
特别申明:

1、本文只代表作者个人观点,不代表本站观点,仅供大家学习参考;

2、本站属于非营利性网站,如涉及版权和名誉问题,请及时与本站联系,我们将及时做相应处理;

3、欢迎各位网友光临阅览,文明上网,依法守规,IP可查。

昆仑专题

高端精神

国策建言

热点排行
  • 一周
  • 一月
  • 半年
  • 建言点赞
  • 一周
  • 一月
  • 半年
  • 友情链接
  • 人民网
  • 央视网
  • 新华网
  • 求是
  • 中国军网
  • 中国经济网
  • 中国社会科学网
  • 中国科技网
  • 中国共产党历史和文献网
  • 红色文化网
  • 观察者网
  • 参考消息
  • 环球网
  • 毛泽东思想旗帜网
  • 红旗文稿
  • 红歌会
  • 红旗网
  • 乌有之乡
  • 橘子洲头
  • 四月网
  • 新法家
  • 中红网
  • 激流网
  • 宣讲家网
  • 中共党史网
  • 国史网
  • 全国党建网
  • 中国集体经济网
  • 中国延安精神研究会
  • 西北革命历史网
  • 烽火HOME
  • 俄罗斯卫星通讯社
  • 赵晓鲁律师事务所
  • 备案/许可证编号:京ICP备15015626号-1 昆仑策研究院 版权所有 举报邮箱:kunlunce@yeah.net