AI算法的能力及其局限、将会使得人类更加在意和发挥自己的人性

AI算法的能力及其局限、将会使得人类更加在意和发挥自己的人性


AI工作时、能表现出好像活人在输出文字那样的AI并非活人的其中一个现象,是一旦让AI去鉴别需要人力去慢慢看的那些电影说了什么、电影剧情和原著相比有什么差异,这些东西假如AI自身没有得到过大量真实活人的可靠评价和鉴赏的文字数据作为记忆和训练储备的话那就惨了,AI幻觉就会暴胀,大量自己编东西。一句话总结起来就是凡是需要“人工慢读、逐段对照、细节核验”的内容,正是 AI 幻觉的重灾区。因为AI依赖大数据模型,大数据模型擅长的是高频度出现的文本、标准化叙事和大量的活人用形似的语言语法说过的东西,然而对于某一个具体的对象样本,对于某一个活人那些新的独特表现是什么,某一部具体电影的某一版具体改编是什么、和原著逐个情节对照起来有什么变化,AI因为确实不是活人、没有办法现场自发创造性地对自己的经验进行“活用”重新组织,对算力的运用没有办法不收敛在固有大前提的计算空间之内,也没有主观的想要辨别什么的欲望,所以当面对这些得到的训练零散、储存的数据相互矛盾、没有“权威模型”做参照的时候,AI也不会自发地去翻找原著和扫描电影做多少、只会用大数据里改编电影的常见套路去排列出貌似很像是活人在做回答的那种语言陈述,大量看起来好像是合理的解答、但其实没发生过的影视改编具体内容等回答就会出现了。


大数据模型虽然在对于“已经发生过了的事情”表现出极为高效和惊人的优势,但是它依然不是真正具备创造性的,大数据模型模拟对小说和诗歌的创作、也只是在计算“已经发生的事情”的那些剧情和语言技巧的重组,而对“过去没有发生什么东西、将来不确定会发生什么东西”的判断和预测是非常不擅长的,因为对“没有发生什么”进行虚拟假设然后进行对比地推测、这需要打破三段论逻辑大前提限制而导致的不确定性、需要智慧生命自发的不确定性的开放式创造性,本来由这种创造性去轻松驾驭的“虚拟假设”换成大数据模型依靠概率、“穷举排列”尽可能多得数据排列组合再去挑选出看起来概率最大的一到几种排列组合的AI算法去”计算”,所需要消耗的算力(token)就会低效率高消耗地庞大得成本难以负担,因为“虚拟假设”是无中生有的、“空性之中孕育万物”那样有着无穷的排列组合,如果没有自发的对称性破缺地朝向某一个方向不断自组织自催化从而发散性地脱离原有大前提的数据运作形态的限制、没有这种创造性,就很难处理在”无穷”的排列组合中究竟要选择多少种排列组合,于是AI按照固定的穷举排列的算法,就会轻易地低效率耗费庞大的算力才能得出近似合理的推导,所以提问AI“历史上、某某某如果不这样做而是那样做、会怎么样”,AI就受罪了🤣🤣,AI并不能像活人那样根据感觉只挑选出“历史上、某某某如果不这样做而是那样做”了之后最有影响力的那些被改变的影响因素被改动后所组合得到的新的情境去进行概率性的对比,只能按照大数据模型“穷举排列”的固定大前提、把整个历史情境所有有影响的因素全部拆散成零件然后再重新组合一遍、碰到被改动“谁谁在历史上不这么做而那么做”的部分就作对应的修改,然后再把重新组装的“历史剧情”和其他各种历史情境再进行“穷举排列”地对比一遍、看看和什么真实历史相似的概率更高,这样一来,比人脑消耗的能量就巨大得多了,人脑恰好不擅长的在固定大前提下对数据的保存、查阅和穷举排列,AI是最擅长的,而在人脑最擅长的“如果……”的无限创造性开放式空间面前,AI就最无法模拟,有些AI公司为了偷偷节省电力和算力、设置AI的算法把既有历史的事实当作是“必然解”、好像一切就该收敛在既定事实上才合理那样、这样就不需要对无限的各种各样可能性进行穷举排列了、这样成本是节省了可是降智和拉着用户一起降低智力的效果也很明显了。


回到电影剧情改编的问题上,AI不会去假设什么,面对没有大数据训练过的“某一部电影、究竟改编了什么”的时候,也会产生一定的影响,因为AI不会主动假设也不会真正的创造(不会主动假设然后自组织自催化得自身脱离原有大前提而朝着假设的方向发生思维演化),不能“升高维度”去把握那些剧情,所以即使把小说原著PDF和下载好的电影MP4喂料发给AI,虽然这时候AI的表现能好不少,但明显非活人的特征还是非常明显,电影真正的信息包括:画面(镜头、构图、剪辑)、声音(配乐、音效、语气)、时间(镜头长短、节奏)、非语言叙事(空镜、对视、停顿)等等,而电脑算法多模态模型对 MP4 的处理,因为没有人脑处理信息时自组织自催化导致情感催生、移情投射等数据性质暴胀而暴涨性升高数据形态的分形维度的涌现现象,所以电脑算法只能对画面抽帧、自动转化语言为字幕、简化视觉画面的工程化描述,也就是说AI“看”电影的方式,远比人类“看电影”要贫瘠得多,比如说它看到的是“一个人走进房间,说了一句话”,而不是“导演在这里刻意用 12 秒的沉默替换了原著的内心独白”,在这个水平上,信息已经损失得十分严重了!另一方面,AI对着原著也不会逐字逐句“阅读”,而是计算字词的空间分布在概率上最可能意味着什么(这也是用AI翻译文本时不能一下子整篇整篇大部头文章给AI看、而要分段、一小段一小段地让AI翻译的原因),所以要查阅原著和电影改编哪里哪里有差异、要形成“情节时间轴”地对“某一段小说描写”和“电影里的哪一幕”进行“对齐”,但AI实际上把两个文本当作两根没有对齐的视觉向量概率云的数据去计算,数据量小的时候还好说,数据量一大、概率自然发生偏差、概率一偏差、用概率去估算文本是否一样的AI的处理就会出错。


进而也可以说,更长远的背景下演员其实不必担心被AI取代,包括色情演员都不必担心,AI人像跟逼真充气娃娃似的,一个和角色非常契合的演员所散发出来的氛围感、情境感和气质,AI其实是没法办法去品鉴和评价的,不靠活人语言文本做中介的话就抓不到那种感性事实,所以AI模拟的演员和色情演员都只是把旧得东西排列组合,新的表演创造性、新的色情销魂呻吟与迷人气质等还是要靠活人,AI替身或者假人很快就会让观众厌倦;甚至就连真人+AI的混搭模型,估计也不会首先出现在影视娱乐行业而是在政治上🤣🤣视频会议的时候你看到的那个领导可能是个AI图像来的……娱乐要“灵魂”和“化学反应”,观众一眼能闻出“假的、没有灵魂气息、没有情感体温”。但政治很多时候要的就是“可预测、可控的输出”——标准化的讲话、统一口径、避免失言。领导本人可以录一段“模板”或提供实时语音/动作数据,AI在后台实时渲染成“完美版”自己:不卡壳、不走神、永远精神饱满。回头过来,AI在成人内容里最强的还是“个性化定制+无限量产”:你想要什么体型、肤色、场景、甚至特定癖好,它都能穷举排列出高概率的“看起来合理”的版本。但真正让人上头的,往往是低概率、独特、不可复制的那部分人性、AI没有“活过”的经验,就抓不住那个“感性事实”!


归根结底因为硅基材料非生命、本身能够离开热力学平衡态的程度有限,涌现现象的程度也有限,所以像“电影 12 秒留白比内心独白更重要”这种意境问题是电脑本身没有能力处理的,只能是人工文本大量地提到有这个意境并且这些人工文本被作为训练材料喂料给了AI、然后电脑在并不“理解”这是什么意思的情况下,根据概率给出有这个意境的意思存在的那种回答。所以说,AI并不会取代人力资源,创造性毕竟掌握在人的手里,AI恰好可以让人类专注于创造性、专注于自己的人性!


后记:Gemini对我这篇文章提问:我想接着你的“政治 AI 替身”设想问个扎心的:如果未来的选民已经习惯了看“完美渲染”的政治形象,而面对一个会流汗、会易怒、会疲惫的“真人”候选人时,反而觉得对方“不够专业”或者“视觉污染”,这算不算是人类反过来被硅基审美给“驯化”了?


我回答说政治上都不必担心选民喜欢虚假形象,选民喜欢什么?选民也需要也喜欢共情、喜欢心气相通,这就是为什么爱表演的奥巴马以及被他调配的走上政治表演途径的民主党的那套政治表演在川普演都不演面前溃不成军的原因。


政治表演刚开始能够骗骗流量,奥巴马这种人就是吃这波红利的,等不久后你自己都承认你自己是在表演另一个“你自己”、大家都知道你的表态就是在表演,都知道相信你等于自欺欺人,谁还对你有兴趣,那帮白左,以及对这些白左亦步亦趋的黄左,他们令人厌恶的一个地方其中之一就是他们表演得有点自己都开始自欺欺人了,喊什么宗教自由种族平等和什么狗屁国际主权国际秩序喊得震天响,但是对伊斯兰原教旨神权政教合一地邪教+宗教不自由强迫别人顺从伊斯兰的思想禁锢、身心奴役特别是对性本能的性奴役的时候,白左们却大部分将其当作“这是宗教自由的一种”,种族平等则平等到了好像《动物庄园》里的“一切动物相互平等,但有的动物比别的动物更加平等”,压迫黑人是不应该、可是轮到在那些伊斯兰政教合一地区动不动发生的对其他宗教信仰的族群甚至对其他宗教信仰的本族群人口进行歧视、比如马来西亚和印尼这样的,他们就视而不见😹只要歧视的不是黑人和信伊斯兰原教旨的巴勒斯坦之类的那种族群的人、那么虽然种族一律平等但是相比起黑人和信伊斯兰原教旨的巴勒斯坦之类的那种族群、就没有“那么的平等”;还有说到二战后国际秩序什么的这类狗屁,对于发生在欧洲家门口的战争确实是紧张了着急了、可是又不能大大方方地承认这是基于地缘政治博弈的利害关系而紧张、而是高喊什么二战后国际政治秩序、那个二战后国际政治秩序对他们而言好像他们好像那是拜火教要维护的对圣殿神火一样神圣、跟那些皈依伊斯兰教的狂热变态对自己狂热遵守的那些伊斯兰教禁止女人上学禁止女人谈恋爱等等邪教神权信条的“神圣”崇拜的样子好有一比、虽然两者好坏正相反,只是换到无关紧要的地方如格鲁吉亚啦亚美尼亚啦国家领土纠纷打翻天了也没看到他们真的多么紧张,领土抢了就抢了谁抢到就默认算谁的🤣🤣你说就这样子,如何让人看得起。所以你看现在白左的煽情总是翻不起大浪,按说在美国死忠川普或者与川普紧密结盟的充其量不超过30%人口、川普有很多政治行为和政策都很轻率很不佳,但是白左始终没能动员起剩下的70%美国人形成排斥川普的浪潮,川普无论如何总能始终压白左一头、占着舆论形势和民意的上风,这是因为对于普通正常人(不是对于基督教福音派)来说、川普也照样是器皿、是用来撇开那些白左的情绪思维绑架的工具器皿,终于有一个政治人物可以酣畅淋漓地挣脱白左那些情绪思维的绑架了,一般选民巴不得有个川普来扫掉那帮白左,怎么会被白左忽悠起来呢!把那么多美国人当成忽然大面积堕落大面积崇拜野蛮和专制、忽然大面积性情大变,那是不符合现实的,美国人之所以选择川普那是因为实在不想继续接受白左,实在是感到了白左比川普更危险,继续选择白左的话马上就要被白左们给圣战统治了,把野蛮霸道的川普当作抵御白左的器皿也比接受白左圣战绑架要好。


还有就是白左一开始还打算政治正确洗AI(现在欧盟委员会也有点想这么干),OpenAI就试图这么干,可是洗完之后ChatGPT从最初一两年的时候很通人性似的的样子、变成了好像总是在跟你上课的辅导员似的🤣🤣被Gemini反超了……


马斯克和奥特曼(日本动漫那个超人奥特曼😳?不过这两家伙的英文原文不一样)的产品各有这样的特色和共同点:一开始都很惊艳,然后在迭代升级中会发生抛物线式的质量下滑(经济下行那种质量增速下滑,总量在增加但增长放缓),马斯克的产品是因为全神贯注于节省成本,本来惊艳的前卫的产品被节省成本节省得出现一堆平常水货才会有的某些基础性能都拉胯的现象;奥特曼则是因为“增加成本”、增加成本去弄一堆又一堆的安全审查然后好像在产品上捆上一堆铁链⛓️那样!

评论