在后 ChatGPT 时代「独立思考」至关重要
2023年5月12日
ChatGPT 一直以来都有幻想问题 (hallucination),所谓的幻想问题,就是它会一本正经地说瞎话,用看似无误的语气,回覆错误的内容。即使在最新的 GPT-4,这个问题已经减缓许多,但仍是存在的。举例来说
相信大家都知道,台湾有八八风灾、八七水灾,但是并没有七七风灾这件事。假如你去查 1998 年 7 月 2 日,台湾也不存在特别的历史事件;而台湾历史上虽然有凯撒琳台风,但是发生在 1994 年而不是 1998 年。但是 ChatGPT 的回答却像煞有其事。这就是所谓的幻想 (hallucination),ChatGPT 以假乱真似地回答。这种幻想问题不仅存在于历史事件,也存在于其他这类的回答。
2017 年哈佛大学的开学典礼中,校长 Drew Faust 在致词中引述已故哈佛教授 Jeremy Knowles 说的话,他说高等教育最重要的目标,是要确保学生毕业后能分辨「有人在胡说八道」(graduates can recognize when “someone is talking rot.”)。这句话在后 ChatGPT 时代又显得更为精辟,因为 ChatGPT 的回覆都是非常肯定与专业,即使内容有误,也很容易让人相信是正确的。假如你没有独立思考,很可能会被 ChatGPT 误导。
以下提供一个简单的思考架构,让你可以时时带着批判思考,面对 ChatGPT 给的回覆。这个思考架构是由两个问题组成,如下:
- 真的是这样吗?
- 为什么?
透过这个简单的架构,当你面对任何网路资讯 (或是 ChatGPT 的回答),都能更有效辨别。举例来说,先前新闻报导 Disney+ 在 2023 年第二季的订阅用户减少了四百万人。在网路论坛上,很多人看到这标题就直接留言说不意外,因为最近 Disney+ 上面的节目品质下降、最新一季的《曼达洛人》很难看。但是订阅用户下降的原因,真的是在于节目品质下降吗?
事实上订阅人数下降的主要原因,根本不是网友们的臆测。真正的原因是 Disney+ 在印度地区的板球转播权竞标输掉,所以变得没办法持续转播印度最热门的板球比赛,让大量的印度用户退订。其实用户数下降的数据要找到并不难,假如你有先问「真的是这样吗」,然后进一步去查证,就可以避免被网友的胡乱猜测给影响。
对于他人的成功法则抱有独立思考
其实不只是 ChatGPT 的回答,面对任何带有权威性角色的回答,有独立思考都会对自己有所帮助。先前 OpenAI 执行长 Sam Altman 的一则推文,在推文中他提到 ChatGPT 没有内建的分享功能、在使用前要先注册,甚至没有能做病毒式成长的回圈,这几点让他严重质疑他过去几年给新创公司的建议。
这则贴文让我们特别有感。假如不知道 Sam Altman 背景的人,这边先快速科普一下。虽然多数人是在 ChatGPT 爆红后才知道 Sam Altman,但事实上在开创 OpenAI 之前,他早已是矽谷新创圈最具份量的人之一。原因无他,在 OpenAI 之前,他是矽谷最强新创孵化器 Y Combinator 的总裁,是 Airbnb、Stripe、Reddit 等多家知名公司背后的推手。在 2014 年时,他在史丹佛大学开设《How to Start a Startup》,几乎成了想经营新创公司的人必上的课。
因此在过去许多人会把 Sam Altman 对经营新创公司的观点,视为成功的法则一般。事实上,过去许多新创公司能有爆炸式的成长,也多亏了在推文中提到的那些方法。只是偏偏历史上最快达到 1 亿位使用者的 ChatGPT,完全没有用上开头提到的那些方法。这也是为什么 Sam Altman 说自己严重质疑过去几年来给新创公司的建议。
在看到这则推文时,让人再次意识到独立思考的重要。独立思考意味着,我们不该对于别人提出的观点,直接照单全收。虽然 Sam Altman 说质疑自己过去提的建议,但这不代表他过去教新创公司的这些经营原则就是错的;也不代表 ChatGPT 的做法就是新的成功法则。达到成功的方式有很多种,别人成功的方法不一定适用于你所面对的情境。
因此,在我们听到别人的成功故事时,在接受前或许可以先停下来想一想「真的是这样吗? 为什么? 他提的观点在我面对的情境下仍然适用吗?」。以这几天看到很多报导引述 Sam Altman 说「远端工作是错的,该结束了」时,我们不认为应该直接就接受这观点,而是要去看背后的脉络,他这一番话真的适用所有公司与团队吗? 可能未必,毕竟大有全远端但仍经营良好的团队。
回过头说,虽然 ChatGPT 很成功,但做 ChatGPT 的产品原则、OpenAI 的经营原则,可能并不适用于你。总之,虽然可能比较累,但还是推荐大家,时时刻刻抱持独立思考吧!