ChatGPT很性感,但更危险
最近ChatGPT这个工具很火,有人说它很有可能颠覆谷歌等搜索引擎,以及开辟AI创作的新纪元。它真的有那么好用吗?背后是否存在着什么隐患呢?本文作者对ChatGPT进行了分析,一起来看一下吧。
后台很多人让我评价一下ChatGPT这个工具,说是很有可能颠覆谷歌等搜索引擎,以及开辟AI创作的新纪元。
我一听特别兴奋,破稿子我早就不想写了,快,我要拥抱未来。
终于,我可以奴役AI从甲方手里骗钱了!
我单片眼镜都戴起来了,好耶。
结果玩了两天,觉得很失望,作为工具来说,可靠性不高,我甚至觉得这东西,挺危险的。
如果大规模使用,替代当下的搜索引擎,那么对整个人类的威胁蛮大的。
放心,我不会鼓吹什么AI威胁论,也不会去讲什么AI替代大量基础岗位之类的老调陈词,这些东西都被人说烂了。
我自己做风控的时候,模型训练玩儿的多了,现在我自己的内容生产也没少用各种工具,要是爬虫和筛选脚本玩儿的不熟,我一个视频动辄几百个表情包,早就累死了。
我能这么卷,AI出了不少皮鞭。
我本身并不会对AI作为工具有什么歧视,生产力摆在这里。
我觉得这个产品真正的威胁,不是AI技术,而是【人类的信任】。
再说一遍。
不是AI,而是【人类的信任】。
当你开始相信这个产品之后,危险会出现。
因为根本不可信,你得到的答案,有可能直接是错的。
一个工具,最重要的是什么?
是效率吗?
效率很重要,但第一优先级是【可信】【可靠】,挥出锤头就是可以砸进去钉子而不是变成魔法少女变身器。
当然,没有说魔法少女变身器不好的意思。
这时候,ChatGPT,作为一个助手也好,搜索引擎也好,对话模拟器也好,最重要的是什么?
是【提供可信可靠】的反馈。
这就是ChatGPT当下的问题,他提供的答案,不可靠。
不可靠就算了,并且还在试图把这种不可信通过煞有介事地包装变得可信。
就像是牛老师一本正经地告诉你,自己是个男的,理论上不可能喜欢男的。
他,说,谎。
但你如果不知道,你很容易相信他,从而着了道。
很多富老头就吃了有道德的亏。
随手给两个案例。
大家自己看一下ChatGPT的回答,以及看看问题是什么。
乍一看,这两个回答都是有理有据的,甚至他还给你补全了诗句。
好温柔好可靠我哭死。
但你再一看,这不就是渣男渣女吗?
温柔地讲好听的话,但其实全是刀子。
尤其是,这人讲话那么井井有条,条理清晰,还会举例。
是不是很可信?
如果你不知道这两首诗,你会觉得这就是答案。
但现实是,这两个答案,都是错的。
就像是外面锁子甲,里面丁字裤。
先说说错在哪。
第一首诗,诗名搞错了,应该是【九月九日忆山东兄弟】。
而且作者是王维,不是李煜。
就算作者真的是李煜,李煜算五代十国的南唐人,五代十国是唐宋之间的过渡期。
这都不是AI技术了,这叫时光机技术了。
第二首诗,作者是对的,朝代也是对的,但诗名还是错的。
这首诗是李白的《静夜思》,而非《月下独酌》。
甚至读他对于诗的理解,也都有点问题,因为静夜思的重点显然重点不是风景和酒,是触景生情,是思乡。
就好像你说自己杀人不眨眼,我问你眼睛干不干一样。
你都说不出到底哪个更离谱。
好了,现在问题就来了。
如果这个产品的答案,仅仅是错的,或者无法回答,都不叫问题。
但这个产品的核心问题在于,很多东西他讲的不但是错的,他还本能的把这个错的东西给【包装】了,而且理直气壮。
大家可以再读一遍这个回答,这是理直气壮引经据典的说错话。
某种程度上,确实是可以替代专家发言。
直接就掌握了废话精髓。
我们都知道,瞎听专家建议,人生会出问题。
这个东西,也是一样的问题。
问题不是他说的是错的,而是出在这个【包装】。
假如你不知道这个【知识】的答案(例如这两首诗的作者和名字),你只看回答,你会觉得好对啊,逻辑好通畅啊,但这东西是错的。
这就是,误导。
真把这东西用在生产力上,必然会极地让你轻松。
因为你很快就会因为工作出现滑稽错误被开除,直接不用工作了,当然轻松。
这时候或许你会疑惑,那不就是一个不好使的搜索引擎吗?至于用【危险】吗?
搜索引擎也有假信息啊,社会也有假新闻啊,短视频也有信息茧房啊,这年头假信息还少吗?
至于这么上纲上线吗?
至于,太至于了。
因为信息茧房撑死了影响你的思考,这东西已经剥夺了你的思考。
你想,过去的搜索引擎是什么?
是给你一堆信息,你去筛选。
他们只提供信息,不提供答案,也不包装答案,顶多提供点莆田医院和性感荷官。
搜索引擎给你展示的结果有筛选,也有排序,但这些东西,你和他都知道是素材,是信息源,是需要人类手动做二次交叉验证的。
最终的决策,是在人手里,而且给了足够的信息。
但这个工具,直接是AI替你做出了选择,你只剩yes和no。
NO。
你说这样不好吗?不是简化了选择吗?
不不不。
举个例子,村里的年猪,过去是,给他一堆结果,生活,交配,屠宰,吃饲料,让他来选择。
每条选择背后,指向的是不同的结果。
现在是,只给它一个AI处理后的结果,红烧,清蒸,油炸,香煎。
AI已经提它排除掉了别的选择,但这个结果本身有问题。
它怎么选,最后都是飞升。
看到这里,你肯定又觉得不对,因为目前这个产品只是用的离线库,等用了在线库之后,能实时更新之后,肯定回答是更加精准的。
另外,技术也是不断进步的,后面肯定还有更精确的模型。
没错,我相信,也认可。
一切都是技术问题,技术是可以不断训练迭代的。
但在迭代的过程中,必然有代价产生,在这个过程中,用这东西产生的危险和误导,怎么办?
谁享受红利,谁是那个代价呢?
各大奇迹建筑背后,你现在是后来者可以大声赞叹,你当年会不会成为修建的人呢?
所以,我目前对这东西是非常警惕的。
不是因为正确或者错误,也不是因为效率。
而是他不给我信息,他提供的是【理直气壮】的答案。
如果这里面的要素有问题,而你作为提问者,对这些问题本身不够了解,那就是对你纯粹的误导。
就像是前面那两个关于诗歌的问题,假如你信了他,从此你的知识结构就缺了一角了。
但你如果对这个问题足够了解了,你还用得着它吗?
真假难辨,但理直气壮,不能用吗?
也不是不能用,但代表使用门槛相当相当高,要求使用者必须特别牛X,需要提前知道答案又或者特别擅长鉴别筛选信息,且观察敏锐。
那有这个本事的人,直接用成熟的搜索引擎效率更高。
工具最重要的,是可靠,是从A到B这个过程,不能有问题。
这工具的问题就是,你期望从A到B,但他给你一个从A到SB的结果,还煞有介事的告诉你答案就是SB。
某种程度上,还真是对的。
这个时代,信息已经够碎片够垃圾了,但这东西直接来了个油门踩到底。
短视频,搜索引擎,给你的都是信息源,撑死了算是信息茧房。
这东西,是理直气壮的给你总结归纳一堆不知真假的信息,并且说的井井有条。
这叫,信息危房。
就像数学题,不会就是不会,而不是理直气壮的给你一个错误解,还写出一大堆乱七八糟的公式和解释。
这是考试骗卷面同情分呢?
而且最讨厌的是,假如有个需求,你知道答案,也能分辨真假,他还会给你撂摊子。
就像牛老师的这种提问一样。
作者:半佛仙人;公众号:仙人JUNP(ID:xrtiaotiao);
原文链接:https://mp.weixin.qq.com/s/yRqDUd5hEOXozhJDO5wb7Q
本文由 @半佛仙人 授权发布于人人都是产品经理。未经许可,禁止转载。
题图来自题图来自与ChatGPT对话的截图。
该文观点仅代表作者本人,人人都是产品经理平台仅提供信息存储空间服务。