在浙大数学系读了4年书,影响了一生的思维。研究数字化技术时,总是潜移默化地用数学思维思考问题。比如,在数学系读书时,用到的任何定理都会给出证明。老师不会说:这个结论是对的,我们借用一下,这里就不证了。也就是说,要强调让学生自己想明白,而不是直接承认权威的结论。
我觉得,搞数字化,也应该坚持这个原则。对数学系的毕业生来说,人云亦云是可耻的。一定要把这些问题想明白。至少是先说服自己,再说服别人。
最近十年来,人们经常谈到数字化、网络化、智能化的意义如何大。其中不乏名气很大的权威人士。但听下来以后,发现他们往往只谈结论而不是论证。如果说论证的话,往往只是借用别人的观点。比如,用外国专家、先进企业的观点,甚至用外行领导的观点。在数学系的人看来,这就像借用一个未经证明的定理,并不是可信的论证。
数字化、网络化、智能化为什么值得去做?
我的答案是:人类发展的终极目标之一,就是让劳动成为快乐的事情。要实现这个目标,就要把人不喜欢做的事情交给机器去做。数字化技术的作用,是让机器去做那些人不愿意做的事情,至少可以让劳动更舒适、更安全。这个意义应该足够大了。
当然,这个论证还需要进一步展开:为什么能做?只要知道两个道理:1、计算机具有科学决策的能力;2、计算机的决策能够实施。
计算机为什么能可科学决策呢?2000多年前,孙子就给出了科学决策的原理:“知己知彼,百战不殆”,“多算胜、少算不胜”。用现在的语言来解释,前一句的意思就是:科学决策的前提是完整、及时、准确的信息;后一句的意思是:科学决策需要反复比较各种可能性。于是,我们发现:互联网、物联网、数字模型给计算机提供了充分的信息,用于满足“知己知彼”的条件,而计算性能的提升使之具备“多算”的能力。所以,数字化、网络化能够让计算机具有科学决策的能力。
从决策到智能,我们可以借鉴控制论的思想。可以把控制论的思想归结为:通过信息的传递实现“感知、决策和执行三个过程的统一”。这其实就是所谓的“知行合一”啊!网络的意义正在于此。这样,计算机决策在技术的底层逻辑上就是贯通的。
大逻辑贯通之后,就要进入细节了。收到信息之后,怎么进行决策呢?我们给出的思路是:用人明白的逻辑,让计算机去决策。这个要求的实质,就是把人类知识变成计算机的数据和代码。
但这里很可能遇到断点。
我们知道:人类表达知识的时候,需要用到各种“概念”。比如,“出现设备故障时关机”、“遇到老虎赶紧逃命”是两条知识。计算要用人的知识,就要理解“设备故障”、“老虎”这些概念。
我们知道:计算机直接接收到的信号,是各种物理信号。如温度信号、震动信号、图像信号等。计算机要应用人的知识,需要将物理信号转化成“设备故障”、“老虎”等概念化的信息。我把这个过程称为从感知到认知的过程。这是走向智能的关键。
那么,“感知到认知”又是如何实现的呢?我们知道,图像识别是AI的一项重要内容。其本质就是“感知到认知”。研究设备监控维护时,要根据数据判断设备的健康状态,本质上也是“感知到认知”。这些技术都能实现“感知到认知”。
但遗憾的是:这些方法不具备一般性。换句话说,遇到具体问题的时候,很可能就是一个“坑”,阻碍智能化的发展。所以,数学思维会让我们考虑另外一个问题:怎样才能找到“一般性”的办法、适合普遍性的问题。在我看来,这个办法就是建立标准。在大数据时代,只要数据足够多、足够全,“标准”可以解决各种认知问题。这是因为:在大数据时代,“样本等于全体”。当数据足够多的时候,就可以囊括各种场景,并分场景建立标准。
除了“感知到认知”,智能决策还可能遇到一个“坑”。这就是优化的决策算法。其实,只要有了模型,遍历事的搜索就是一种“万能”的决策方法。这种搜索方法最大的问题,是经常遭遇组合爆炸,计算量可能太大。我们注意到:云计算、大数据等技术,可以解决许多问题。另外,人们找到了很多提高搜索效率的算法,许多人工智能算法就是用来解决这个问题。但大量的优化方法可能要放弃“最优”的要求,只能找到一个比较好的做法。否则,找到最优的时间可能无限长。这个放弃可能很痛苦,但没有办法。
按照这个逻辑,实现智能化就没有绝对的“坑”了。当然,具体实现时,可能会受到数据条件、计算能力的约束。数字化技术的发展,恰恰逐步弱化了这个约束。这就是数字化、网络化发展的意义所在。
当然,前面讲的这些都是“技术可行性”。技术的实际推进过程还涉及到“经济可行性”问题。计算机、网络技术的发展只能降低技术的成本,但是否真正具备经济性,还要看应用的场景和具体的做法是否合适。所以,智能化的推进,必然是个持续发展的过程、是个不断演进的过程。
这个逻辑有点复杂,但一旦想透了,自己就真的懂了。