如何正确的向chatgpt提问,如何向人提问

5月18日上午,由《财经天下》周刊、「市界」和《博客天下》联合主办的“想象创未来·2023异想大会”在北京召开。

长江商学院金融学助理教授、哥伦比亚大学商学院金融学博士梅丹青在会上发表了《AI时代的人才与数据》主题演讲。

梅丹青从对ChatGPT的理解出发,拆解并总结了其不同于以往AI的能力,探讨ChatGPT的诞生对全球人才市场造成的冲击,以及背后出现的数据伦理等问题。

如何正确的向chatgpt提问,如何向人提问

(图/梅丹青演讲现场)

梅丹青表示,有推理能力,有一定世界知识储备,以及有一定情感理解能力和心智的ChatGPT正在深刻地改变着当今世界的生产和生活方式。

“未来,我们一定是跟ChatGPT及其他AI技术共存、共创和共同进化的。从历史上看,新技术带来的冲击,并非简单地替代,更多是对人的能力有一个迁移或转化。”梅丹青说。

在他看来,现在人们可以给ChatGPT提很多问题,但只要在问题的后面简单加上一句“let us think step by step”(译:慢慢想),它给出的回答就会有一个质的飞跃。

“所以在未来,如何更好地提问就是一个很重要的能力。”梅丹青表示。

以下是嘉宾演讲全文:

首先,我们来拆解一下ChatGPT或者大语言模型到底有什么样的能力?我觉得有三个能力是以前的AI所没有的。

第一,有推理能力。用以前的语言模型解数学题是比较困难的,但现在这些大语言模型为什么又具有了推理能力呢?这是因为现在对它的训练手法不一样了。

以前的大语言模型总是给它一个问题,并告诉它这个问题的答案是什么。而当它碰到一个没有碰到过的问题时,我们就发现它很难做出解答。现在是我们给它问题,它输出的并不是这个问题的答案,而是针对这个问题所有的思考过程,输出的是解题步骤,我们叫Chain of Thought逻辑链。

通过以上方式,可以让这些语言模型具有一定的推理能力,而这样的推理能力是只有当模型参数达到千亿级别的时候才能有的。在过去半年里,人工智能领域最流行的词就是有限、顿悟这样的词,即当语言模型变得足够大的时候,就会顿悟出以前想象不到的能力。

第二,有一定的世界知识。传统来看,自然语言处理起来非常困难是因为我们想理解一句话,并不仅是理解这句话本身,还必须有对这个世界一定的认知才行。

举一个很经典的例子,第一句话是“市议员拒绝给示威者许可证,因为他们畏惧暴力”,这是的“他们”指谁?第二句话是“市议员拒绝给示威者许可证,因为他们鼓吹暴力”,这里的“他们”指谁?

我们如果想完全理解这两句话必须有一个背景支持,要知道市议员是畏惧暴力的,而示威者是鼓吹暴力的,我们才能理解这两句话。当我们把模型无限扩大,喂进去很多数据的时候,它就掌握了一定的世界知识,有了一定的知识背景,在背后辅助它给出更正确的答案。

上周,可汗学院创始人分享了他们现在怎么用AI做助教改变教育行业,这也是一个很好的例子。在线的AI助教不仅给出问题的答案,而且给出了每个问题的解题步骤,更好地帮助学生理解知识。

如果有一个拥有无穷世界知识的AI老师,你问它什么问题都可以解答你,可以给你所有想知道的,而且如果对某一个词或者典故有更多的兴趣,还可以发散出去,给你更多的知识分享。

第三,有一定的情感理解能力或者说心智能力。在斯坦福之前的一篇论文中曾谈到在医学心理健康领域有一个ToM任务,主要是给自闭症儿童用的,是去测试自闭症儿童到底能不能理解别人的感情。文章发现,至少在GPT3.5的阶段,AI已经能基本上解决93%以上的ToM的任务了,其心智能力大概和一个9岁的儿童相当。现在发展的新的大语言模型在情感理解力上又更强了。而当我们的AI有一定的情感理解能力时,这种AI型的情感陪伴应用也会越来越多。

最近这几天就有一个Twitter上的网红和人工智能公司合作,推出了一个AI版本的她,1分钟1美元可以跟她打电话,第一个月就赚了60万美金。这当然有一定的炒作成份,但这也是未来我们应用大语言模型做情感陪伴上的应用案例。

如何正确的向chatgpt提问,如何向人提问

(图/梅丹青)

我们说了这么多厉害的地方,ChatGPT也有缺点,就是容易一本正经的胡说八道。在自然语言处理的专业领域会产生一些幻觉,例如你让GPT给你讲一个林黛玉倒拔垂杨柳的故事,它也会给到你。所以,你需要避免它进行一些事实上的判断。

结合ChatGPT的能力和缺点,如果说现在的大语言模型适合什么样的任务?我认为它更适合一种广义上的翻译任务,简单的中英文互译,GPT已经可以完美地做到了,但其他的,比如在金融领域,像我们的金融分析师一样,把财报里的各种金融数字翻译成一个研究报告,给我们的投资人用;在法律领域,把各种各样的法条翻译给普通人看;在教育领域,把知识翻译成学生能听懂的语言;在营销领域,把产品的特点翻译成客户喜欢听的语言等,这些翻译的工作也都是很容易被这些大语言模型所替代或者说所冲击的。

还想分享一个很新的论文,这是我的同事长江商学院的孙天澍教授最近写的一篇。他想研究GPT对劳动力市场的冲击,用一个最简单的做法,把这些任务的文本描述直接扔给GPT,去问“你觉得这样一个任务,会不会被你所取代?”,这就是他的论文研究。

数据显示,在中国市场上,大概有4%到18%的职业有可能会被这样的大语言模型冲击,但对比美国市场这个数字大概是14%到55%,所以中国市场在短期内被大语言模型所冲击的力度一定是小于美国市场的。

我们再看看不同年龄段及不同学历的人,哪一类最容易被AI所替代和冲击呢?有意思的是,在年龄上,你会发现最容易被冲击的其实是年轻人、应届毕业生们。换个说法,AI最大程度上能替代的活就是行活。

这就产生了一个很重要的问题,谁不是从没有经验走向有经验呢?那未来的教育行业,我认为可能会被极大地改变。现在的教育行业更多是在分享知识,年轻人有了知识进入职场,选择职场培训,慢慢地变成一个有经验的人。未来,职场的第一步把年轻人从没经验培养成有经验的会越来越少,从降低成本的考虑出发,会让AI来取代这一批岗位。行业经验的事情得往前推了,可能推到大学里,从大学就开始培养,怎么让年轻人一进入行业就是一个有行业经验的人,我觉得是大家可以思考的问题。

从历史上看,不同的技术对于人才市场的冲击,一般来说并不是一些简单的替代或者是取代,而是对人的能力会有一个迁移或者是转化。现在Prompt Engineering是非常火的词,你用不同的方式向ChatGPT提问,给你的回答是不一样的,所以如何更好地提问是很重要的。举个例子,现在的人工智能给它很多的问题,但在背后只要简单地加一句“let us think step by step”,就是你让它慢慢想,它给你的回答就会有一个质的飞跃。因此,在未来,学会提问能力就是一个非常重要的能力。

另外,我觉得未来人和AI或者和ChatGPT的关系是共生、共存和共同进化的。现在有很多的大学非常纠结,到底要不要禁止学生使用ChatGPT,特别是在写论文的时候。但我在看来,一定要拥抱这些新技术。现在大家读论文还是为了获取一些观点,如果把论文扔进AI,它也会帮你总结出来。再想得远一点,以后可能都没有论文了。

再讲一下数据方面。现在数据越来越多,可是大家从来没有想过一个问题,大数据会不会枯竭?会不会有一天没有数据去学习了呢?其实是有可能的。有一个最新的论文研究,预计到2027年前,人类公开的高质量文本的产生速度就会小于机器学习速度了,所以有一天我们的数据是会枯竭的,而不是数据会永远存在,并供我们大家去学习的。这背后有什么样的启示?数据可能是未来每个公司最重要的护城河,数据资产是非常重要的。

最后,未来的数据伦理也是一个非常重要的问题。去年ChatGPT刚出来的时候,Microsoft Open AI就已经被告了,这个案子如何审判其实是非常重要的,因为AI能帮助你编程,那它怎么帮助你编程的?它的数据一定是来自开源网站上的程序,但这些到底能不能用来做商用的AI输出的数据呢?这其实是有法律问题的,也就是说数据的版权问题是非常重要的。

再往下看,我们怎么去激励人创作内容也会是一个很大的问题。举个例子,Stack Overflow网站的访问量在ChatGPT出来以后下降了14%。Stack Overflow是一个程序员上去问各种各样bug的网站。大家可以想象,ChatGPT为什么能帮助你解决程序的bug呢?就是因为有了这样的网站。如果说ChatGPT出来后,这样的网站访问量变低了,这是不是一个悖论?所以,未来在数据伦理上如何去激励人生产内容都是非常值得大家去思考的。

在人工智能时代,技术的迭代实在是太快了,一天不看可能就已经落后了。所以,大家拭目以待吧,谢谢大家!

创业项目群,学习操作 18个小项目,添加 微信:luao319  备注:小项目

本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 fqkj163@163.com 举报,一经查实,本站将立刻删除。
如若转载,请注明出处:https://www.fqkj168.cn/9404.html