首页/文章/ 详情

从AI的边界谈起

1年前浏览1718

前些天几位朋友聚餐,谈到了人工智能的边界。我在《知行》中写的一些观点,ChatGPT出现后并未过时。  

1、目前的AI只能从数字空间中获取知识,而人类可以在实践中、在和物理对象的接触中获得知识。比如,我们研究问题的时候可以做些实验、测试,而AI就做不到。  

2、AI一般只能从特定数据来源中获得知识,而人类可以更方便地建立连接,动态地获取知识和信息。比如,人遇到问题可以请教其他专家;如果专家本身不了解,可以提供线索,帮助找到其他专家。  

3、AI或许能够做出最好的决策。但行动的权力是人类赋予的,AI的决策未必能变成行动。  

我们聊的这些话,似乎有点海阔天空,却有现实的指导作用。在我看来:推进数字化的本质,是重构人和机器的界面。也就是说,数字化时代往往是机器和人一起做事,要想清楚两者如何分工,才能取得最好的效果。下面举几个例子:  

某保险公司经常发现有人骗保。但由于人手有限,没有精力进行全面调查。于是,他们用数字化的办法,对骗保的可能性进行分析。找到骗保可能性比较大的案子,再进行重点调查。这样问题的得到了很高的解决。  

在这个例子中,“调查”是与物理世界接触,获得信息的过程。机器无法从事调查活动,就要交给人去做了。现实中的许多工作(如设备故障分析、质量问题分析等),数字空间的信息往往是有限的,需要进一步获取信息才能下结论。  

人们在采用CAD软件时,有没有想过:计算机为什么只起到辅助作用,而不是直接做出决策呢?  

现实的原因是:设计和制造过程需要考虑很多方面的约束和问题。这些要求和约束事先不一定能够说清楚,需要在大家讨论的过程中才能定下来。中间可能要增加一些需求和知识。所以,机器就不能做出完整的决策,只能是辅助决策。  

生产过程的智能管控软件有几种类型:水平最高的是完全自动控制;水平差一点的是半自动控制,可以在人类监控下自动执行,但人类可以很方便地干涉、取消机器决策;最低水平的是操作指导,把计算结果展现给人,让人决定如何执行。  

为什么不能把“操作指导”变成全自动控制呢?因为人类不放心、担心会出现各种意外,就不能对机器完全授权。  

从某种意义上说,三个局限性就是三个发展方向。比如,通过信息集成、提高数据质量并采集更完整的信息,完善控制机制,可以弱化这些局限性。当然,这些局限性是不可能完全消除的。

来源:蝈蝈创新随笔
控制人工智能
著作权归作者所有,欢迎分享,未经许可,不得转载
首次发布时间:2023-10-23
最近编辑:1年前
蝈蝈创新随笔
只是把思考的日志搬运,不当之处...
获赞 92粉丝 11文章 1159课程 0
点赞
收藏
未登录
还没有评论
课程
培训
服务
行家
VIP会员 学习 福利任务 兑换礼品
下载APP
联系我们
帮助与反馈