当今的基于深度学习的人工智能有一个非常困扰人类的问题:他们不少是个黑盒子。模型训练好了之后变成服务,用户喂一些问题进去,它吐一些答案出来。但是不但问题和答案之间并不一定特别有能够分析得出来的逻辑关系,几个回答之间也不一定具有分析得出来的逻辑关系。
就像前阵子大家调戏ChatGPT做小学算术题,这道题做对了,稍微变一变下一道就有可能做错了,再变一变,说不定又对了。不但对错很随机,错的方式也找不出来什么规律,相当的随机。“小学算术”当然可以很容易地判断出对错。但是如果问的问题比较复杂,进入了普通人不能轻易判断的范畴,我们怎么知道答案的对错?
对的不知道怎么做对的,错的不知道怎么错的,这次对不保证下次不错…… 当过家长的这几句说得都熟了。
然而这就是AI的现状。
有关这个“黑盒子”,我们知道什么?我们知道它需要大量…
Keep reading with a 7-day free trial
Subscribe to 曳杖东坡下 to keep reading this post and get 7 days of free access to the full post archives.