题型:现代文阅读 题类: 难易度:普通
湖北省汉川市2024年中考语文模拟试卷
【文本一】
ChatGPT如何练就对答如流的本领
①以ChatGPT为代表的人工智能模型正在以惊人的速度快速迭代,甚至有科技公司宣称,ChatGPT今后可能取代人类。那么,ChatGPT真的有可能取代人类吗?它的原理是什么?下面我们来解密。
“套娃”方式让ChatGPT实现长文本生成
②英文缩写ChatGPT翻译过来就是“生成式预训练转换器”。从这个名字就能看出,它是一个可以生成内容的预训练模型。什么叫生成内容呢?成语接龙游戏就是一种生成,根据前面的内容生成后面的内容。如果我说“守株待……”,ChatGPT可能会生成“兔”;如果我说“声东击……”,ChatGPT可能会生成“西”。这就是单字接龙的生成能力。
③如果只是一个字一个字地生成,想要生成一段长文本岂不是太慢了?这就需要用到“套娃”方式,即每生成一个字,就把它和前面的内容组合起来,再去生成下一个字,如此反复,就可以生成任意长的文本。比如,开始时输入“守株待”,ChatGPT生成“兔”,然后把“守株待兔”作为新的内容,再生成下一个字。这样通过大量的单字生成和组合,任何长文本都可以生成。
生成内容受两个因素影响,并非随机答案
④那么,ChatGPT生成的内容是不是完全随机呢?答案是否定的。因为生成内容受两个因素影响:一是上文,二是ChatGPT自身的语言模型。简单来说,就是相同上文、不同模型会生成不同内容,相同模型、不同上文也会生成不同内容,这就和每个人脑海中对“守株待兔”后面应该连接什么字都有自己的理解是一样的。
⑤当然,我们还希望ChatGPT生成我们想要的内容。这就需要给ChatGPT提供大量我们想要的内容,让它通过学习来改变自身的语言模型。就像重复学习“守株待兔”后面的词应该是“猛虎”,久而久之,看到“守株待兔”后,我们的脑海中第一个出现的词就是“猛虎”。ChatGPT也一样,通过学习就能逐步掌握我们想要的语言规律。
ChatGPT通过学习,能自己生成新答案
⑥学习不是简单的记忆,而是能举一反三。如果训练过“守株待兔,猛虎”,看到“守望相助,英雄辈出”,也知道下一句应该是“猛虎”,这就是ChatGPT的泛化能力——运用学习到的规律回答没有见过的问题。这与我们通过学习就会运用道理回答新的问题是一样的。
⑦ChatGPT回答问题也是这样的原理,给它提供大量正确的问答范例进行学习,它就掌握了回答这个类型问题的方法,从而可以回答没有见过的新问题。这点不同于搜索引擎——搜索引擎直接在数据库里找现成答案,而ChatGPT懂得回答问题的方式,自己就能生成新答案。
⑧不过,ChatGPT的答案不一定正确,因为它可能按照错误的规律生成错误或虚假内容,就像我们也可能从错误例子中学习到错误的知识一样,产生不符合事实的答案。所以,我们不能盲目相信它的“一面之词”,而要通过多次提问来评估它的可靠性。
得益于极大的模型规模和三段训练法
⑨ChatGPT为何能达到如此惊人的语言生成效果呢?这得益于极大的模型规模和三段训练法:首先,ChatGPT吸收了上亿条互联网数据进行无监督预训练,掌握了广泛的语言知识;然后,人工设计语言交互模板规范它的行为;最后,通过人工提问,不断反馈训练,提升它的创造力。通过这样逐步的训练,ChatGPT才能超越我们的预期,完成很多复杂的语言任务。
(冯润/文,选自《科普时报》2023年10月27日,有校改)
【文本二】
①ChatGPT虽然很先进,但尚不能完全替代人,仍有局限性:它只能根据给定的训练数据信息,如某些单词或词组出现的概率生成文本,无法理解“字里行间”的含义或语境;只能提供受过训练的信息,无法回答训练数据之外的问题;还会生成包含冒犯性或不恰当语言的回答。人工智能初创公司通用智能的首席技术官乔希·阿尔布雷希特说:“技术人员能在现有基础上添加相关操作,以防止ChatGPT一直说冒犯性的话或瞎编东西。”
②由此,ChatGPT不可避免地带来两个问题:一是科技伦理问题,二是收入分配不均问题。人类应了解人工智能技术及其应用的最新进展,以利于理解人工智能的潜在益处和风险,努力确保它被公平公正使用,防止对社会产生潜在的负面影响等。《自然》杂志给出了进一步研究需要关注的五个问题:务必要对模型进行持续校对;制定问责制与规则;投资真正开放的大语言模型;扩大辩论范围;讨论拥抱人工智能的好处。ChatGPT会设置多层道德底线,兼顾科学和伦理,约束“经济人”行为,以保持“人尽其才、物尽其用”特性。
(周宏春/文,选自《中国社会科学报》2023年3月6日《ChatGPT如何影响社会生产生活?》有校改)
试题篮