ChatGPT很性感,但更危险
2022/12/9 15:03:43 仙人JUMP

     这是仙人JUMP的第803篇原创

     1

     后台很多人让我评价一下ChatGPT这个工具,说是很有可能颠覆谷歌等搜索引擎,以及开辟AI创作的新纪元。

     我一听特别兴奋,破稿子我早就不想写了,快,我要拥抱未来。

     终于,我可以奴役AI从甲方手里骗钱了!

     我单片眼镜都戴起来了,好耶。

    

     结果玩了两天,觉得很失望,作为工具来说,可靠性不高,我甚至觉得这东西,挺危险的。

     如果大规模使用,替代当下的搜索引擎,那么对整个人类的威胁蛮大的。

     放心,我不会鼓吹什么AI威胁论,也不会去讲什么AI替代大量基础岗位之类的老调陈词,这些东西都被人说烂了。

     我自己做风控的时候,模型训练玩儿的多了,现在我自己的内容生产也没少用各种工具,要是爬虫和筛选脚本玩儿的不熟,我一个视频动辄几百个表情包,早就累死了。

     我能这么卷,AI出了不少皮鞭。

    

     我本身并不会对AI作为工具有什么歧视,生产力摆在这里。

     我觉得这个产品真正的威胁,不是AI技术,而是【人类的信任】。

     再说一遍。

     不是AI,而是【人类的信任】。

     当你开始相信这个产品之后,危险会出现。

     因为根本不可信,你得到的答案,有可能直接是错的。

    

     一个工具,最重要的是什么?

     是效率吗?

     效率很重要,但第一优先级是【可信】【可靠】,挥出锤头就是可以砸进去钉子而不是变成魔法少女变身器。

     当然,没有说魔法少女变身器不好的意思。

    

     这时候,ChatGPT,作为一个助手也好,搜索引擎也好,对话模拟器也好,最重要的是什么?

     是【提供可信可靠】的反馈。

     这就是ChatGPT当下的问题,他提供的答案,不可靠。

     不可靠就算了,并且还在试图把这种不可信通过煞有介事地包装变得可信。

     就像是牛老师一本正经地告诉你,自己是个男的,理论上不可能喜欢男的。

     他,说,谎。

     但你如果不知道,你很容易相信他,从而着了道。

     很多富老头就吃了有道德的亏。

    

     随手给两个案例。

     大家自己看一下ChatGPT的回答,以及看看问题是什么。

    

     乍一看,这两个回答都是有理有据的,甚至他还给你补全了诗句。

     好温柔好可靠我哭死。

     但你再一看,这不就是渣男渣女吗?

     温柔的讲好听的话,但其实全是刀子。

    

     尤其是,这人讲话那么井井有条,条理清晰,还会举例。

     是不是很可信?

     如果你不知道这两首诗,你会觉得这就是答案。

     但现实是,这两个答案,都是错的。

     就像是外面锁子甲,里面丁字裤。

    

     先说说错在哪。

     第一首诗,诗名搞错了,应该是【九月九日忆山东兄弟】。

    

     而且作者是王维,不是李煜。

     就算作者真的是李煜,李煜算五代十国的南唐人,五代十国是唐宋之间的过渡期。

     这都不是AI技术了,这叫时光机技术了。

    

     第二首诗,作者是对的,朝代也是对的,但诗名还是错的。

     这首诗是李白的《静夜思》,而非《月下独酌》。

    

     甚至读他对于诗的理解,也都有点问题,因为静夜思的重点显然重点不是风景和酒,是触景生情,是思乡。

     就好像你说自己杀人不眨眼,我问你眼睛干不干一样。

     你都说不出到底哪个更离谱。

    

     好了,现在问题就来了。

     如果这个产品的答案,仅仅是错的,或者无法回答,都不叫问题。

     但这个产品的核心问题在于,很多东西他讲的不但是错的,他还本能的把这个错的东西给【包装】了,而且理直气壮。

     大家可以再读一遍这个回答,这是理直气壮引经据典的说错话。

     某种程度上,确实是可以替代专家发言。

     直接就掌握了废话精髓。

    

     我们都知道,瞎听专家建议,人生会出问题。

     这个东西,也是一样的问题。

     问题不是他说的是错的,而是出在这个【包装】。

     假如你不知道这个【知识】的答案(例如这两首诗的作者和名字),你只看回答,你会觉得好对啊,逻辑好通畅啊,但这东西是错的。

     这就是,误导。

     真把这东西用在生产力上,必然会极地让你轻松。

     因为你很快就会因为工作出现滑稽错误被开除,直接不用工作了,当然轻松。

    

     这时候或许你会疑惑,那不就是一个不好使的搜索引擎吗?至于用【危险】吗?

     搜索引擎也有假信息啊,社会也有假新闻啊,短视频也有信息茧房啊,这年头假信息还少吗?

     至于这么上纲上线吗?

     至于,太至于了。

     因为信息茧房撑死了影响你的思考,这东西已经剥夺了你的思考。

    

     你想,过去的搜索引擎是什么?

     是给你一堆信息,你去筛选。

     他们只提供信息,不提供答案,也不包装答案,顶多提供点莆田医院和性感荷官。

     搜索引擎给你展示的结果有筛选,也有排序,但这些东西,你和他都知道是素材,是信息源,是需要人类手动做二次交叉验证的。

     最终的决策,是在人手里,而且给了足够的信息。

     但这个工具,直接是AI替你做出了选择,你只剩yes和no。

     NO。

    

     你说这样不好吗?不是简化了选择吗?

     不不不。

     举个例子,村里的年猪,过去是,给他一堆结果,生活,交配,屠宰,吃饲料,让他来选择。

     每条选择背后,指向的是不同的结果。

     现在是,只给它一个AI处理后的结果,红烧,清蒸,油炸,香煎。

     AI已经提它排除掉了别的选择,但这个结果本身有问题。

     它怎么选,最后都是飞升。

    

     看到这里,你肯定又觉得不对,因为目前这个产品只是用的离线库,等用了在线库之后,能实时更新之后,肯定回答是更加精准的。

     另外,技术也是不断进步的,后面肯定还有更精确的模型。

     没错,我相信,也认可。

     一切都是技术问题,技术是可以不断训练迭代的。

     但在迭代的过程中,必然有代价产生,在这个过程中,用这东西产生的危险和误导,怎么办?

     谁享受红利,谁是那个代价呢?

     各大奇迹建筑背后,你现在是后来者可以大声赞叹,你当年会不会成为修建的人呢?

    

     所以,我目前对这东西是非常警惕的。

     不是因为正确或者错误,也不是因为效率。

     而是他不给我信息,他提供的是【理直气壮】的答案。

     如果这里面的要素有问题,而你作为提问者,对这些问题本身不够了解,那就是对你纯粹的误导。

     就像是前面那两个关于诗歌的问题,假如你信了他,从此你的知识结构就缺了一角了。

     但你如果对这个问题足够了解了,你还用得着它吗?

    

     真假难辨,但理直气壮,不能用吗?

     也不是不能用,但代表使用门槛相当相当高,要求使用者必须特别牛X,需要提前知道答案又或者特别擅长鉴别筛选信息,且观察敏锐。

     那有这个本事的人,直接用成熟的搜索引擎效率更高。

     工具最重要的,是可靠,是从A到B这个过程,不能有问题。

     这工具的问题就是,你期望从A到B,但他给你一个从A到SB的结果,还煞有介事的告诉你答案就是SB。

     某种程度上,还真是对的。

    

     这个时代,信息已经够碎片够垃圾了,但这东西直接来了个油门踩到底。

     短视频,搜索引擎,给你的都是信息源,撑死了算是信息茧房。

     这东西,是理直气壮的给你总结归纳一堆不知真假的信息,并且说的井井有条。

     这叫,信息危房。

    

     就像数学题,不会就是不会,而不是理直气壮的给你一个错误解,还写出一大堆乱七八糟的公式和解释。

     这是考试骗卷面同情分呢?

     而且最讨厌的是,假如有个需求,你知道答案,也能分辨真假,他还会给你撂摊子。

     就像牛老师的这种提问一样。

    

     仙人JUMP

     点击关注下方账号!

     你将感受到一个放飞自我的灵魂

     且每篇文章都有惊喜

     -----------------------

     感谢你的阅读,下面是1个抽奖链接按钮,12月19日晚上19点开奖,一共1888元,666个红包,感谢大家的支持。

     感谢大家一直以来的阅读、在看和转发,点我参与抽奖!点我参与抽奖!

     【我爱这个魔幻的世界】

    

    

    源网页  http://weixin.100md.com
返回 仙人JUMP 返回首页 返回百拇医药