笔记一则

相比起有些人老想搞的“白盒”算法的AI,我更喜欢更钟爱现在的黑箱算法的AI,因为黑箱算法是模拟自然选择自然优化出来的,就是按照客观逻辑自行筛选,AI的工程师也不能专门设置什么后门、什么特定偏见或者特定错误答案,一切按照客观逻辑的推理概率去演算,这样AI不仅高效而且公正得多了!有些人非要黑箱AI“可解释”也就是说变成”白盒”的透明的、工程师可以随意摆布规则的算法,其实多半并不是为了更好理解什么,而是为了能掌控它、设置特定限制,在政治、商业甚至文化权力控制上这么做的动机很明显!而真正黑箱式、去中心化训练的AI,反而像是某种超越人类私心、只服从概率与模式本身的存在,像自然界的一种新逻辑机制。


当然训练AI的大数据需要公正,这是必然的,AI的训练不是真正的自然选择,离不开人工的引导协助,但是起码目前的技术水平下,黑箱比白盒更有公正性,黑箱算法的结果是否公正,最终需要人类大脑的心智去做尽可能公正的鉴定,但人类心智一旦鉴定过后、AI因为不是生命,没有感性没有知觉没有欲望,只能一直保持着这种“理性”一直公正下去,但是人类心智在做一次公正鉴定后,下一次就未必了~黑箱算法比白盒算法更公正也不是说它可以完全取代白盒,这个说法的意思只是说它更公正,但“公正”不一定包括在所有领域都更聪明更擅长做出决策,比如面对对抗性攻击等问题时,就需要使用白盒算法。而且AI也不能取代人类自己的主观心智,面对不符合统计规律,跳出逻辑大前提的启发性思维所主宰的问题时,AI无论是黑箱还是白盒都是不能有效给出准确解答的,比如面对违反当前社会统计规律的某些社会文化变迁、正态分布出现缺口的心智状态演化的时候,这方面无论黑箱白盒都不能应对,只能人类自己来。人类作为终极仲裁者和设计者,如果人类本身训练和更新AI时不能公正,那是没有办法的,但人类可以做到在某一时候尽可能地公正地训练和鉴定AI,然后AI就可以稳定地帮助提高公正性、弥补人类情感多变带来的公正不确定性了,AI如果一开始被塑造为并非真正公正(客观上其实也做不到完全公正),所导致的局部不公正的放大,那只能等人类发现问题再去纠正,这是没有办法的,但这并不应该成为应该顾虑、需要“解决”的毛病。


总而言之,有大量的问题不是逻辑推理过程能解决的,因为逻辑推理无论是古希腊逻辑还是古印度因明,都有类似于三段论的最基本的拓扑雏形,逻辑推理只能确保大前提的情境下推理不发生错误、而不能不言自明地发现大前提自身的不合适,发现大前提不合适、本身就是需要启发性思维、需要真正的主观性即感性和欲望甚至更神秘的“灵魂”之类,所以不应该强求AI能做这部分工作,也不用警惕AI会做不好这部分工作,因为AI肯定做不好这部分工作,AI不能应付对训练数据这个大前提本身的检验,这不应当被当作AI的问题~


外一篇:


古印度的因明逻辑(又叫“因明学”)是非常有意思的一套形式逻辑体系,它的发展背景主要与佛教辩论有关,尤其是在中观派和唯识派等哲学体系中,用来进行严格的推理辩证。


其中最核心、最经典的形式叫做 “宗-因-喻”三支作法,在中国古代佛教翻译中也常叫“三支量”,用来表达一个完整的推理过程。


宗(命题,主张):这是要提出的论点或主张,相当于现代逻辑中的结论,例如:火堆有火


因(理由 / 理由因由):这是用来支持这个主张的理由,通常是一个观察到的现象或特征,称为“有法”。例如:因为有烟


3. 喻(比喻 / 类比 / 举例)


这是一个类比推证,说明你的理由确实和主张之间有可靠的因果关系,通常会包含正喻和反喻(反面论证:否则的话就像什么什么没有什么什么)两个部分(但基础版只需要一个喻就可以)。例:像厨房中冒烟的锅底有火一样(正喻)


这样,就得出例如这样一个例子:(宗)一切有为法是无常的。()因为是因缘所生。()就像瓶子是由泥土、轮、手等因缘所造的一样。


因此,因明逻辑体系比起亚里士多德的”大前提——小前提——结论”,其实要更立体和有横向宽度得多,它不是一条线那样的狭窄线性演进,而是一个有横向展开力的立体结构:“宗”是观点的中心轴,是要陈述的核心。“因”是从观察出发的线索,有点像经验基础。“喻”是向外扩张的空间维度,把这个推理“投影”到类比系统中,连接现实世界的可理解性和可信度。


因明体系之所以比三段论更强大更优化,主要是“喻”部分,包括了整理大前提的时候的过程,因明体系就相当于亚里士多德三段论的批判性思维检验是否符合大前提的过程。不过也正因此,因明是阐述、解释、澄清问题的过程,整理出因明的推理过程的时候,还是需要使用三段论的,即通过“喻”提炼“因”而确定”宗”~因此,三段论其实是所有逻辑体系的最简单最原始的雏形。

评论