人工智能行业专题ChatGPT开启AI新

中科医院曝光资质 http://www.ykhongye.com/bdf/baidianfengbingli/375.html

(报告出品方/作者:中国银河证券,吴砚靖、邹文倩)

一、ChatGPT开启AI新纪元,指明NLP生成领域的技术方向

ChatGPT指明了NLP生成领域的技术方向。预训练语言模型对于NLP理解领域以及生成领域的问题都是相当有效的,在过去几年里,发展出的主要模型有Bert和GPT。从文本对话的过程来看,理解到生成之间的连接是一个关键问题。然而,Bert在NLP理解领域获得了巨大的成功,但是在NLP生成领域却表现不佳,这是由于Bert训练时所采用的语言模型所决定的。Bert采用的是DAE语言模型,只学习到了词的上下文表征的能力,即理解语言的能力,但没有学习到如何组织语言的能力。而chatGPT成功解决了这个问题,可以说ChatGPT指明了NLP生成领域的技术方向。

ChatGPT从技术本源上加速AIGC发展。AIGC的底层技术主要有NLP、GAN、扩散模型等,其中的代表就是语言生成中的chatGPT和图像生成中的扩散模型(DiffusionModel)。年8月StabilityAI宣布开源StableDiffusion模型,AI图像生成成本迅速下降,并且能获得惊人的高质量绘画作品,达到学习几年、十几年的画师同等水平。而年11月OpenAI发布的chatGPT虽然是自然语言生成领域的产品,但是可以生成AI绘画提示词,或生成调用计算引擎,从而进一步加速AI绘画、AI游戏、AI音视频领域的应用。我们认为,ChatGPT对AIGC发展的意义在于:一方面,GPT作为NLP生成领域模型的突破,将迅速解决AI文本生成、AI代码生成等领域的痛点;另一方面,AI文本生成、AI代码生成作为AI音视频、游戏等其他领域的技术基础,其突破发展也将加速AIGC在音视频、游戏等场景中的渗透(比如生成AI绘画提示词,或生成调用计算引擎)。

(一)ChatGPT通过引入RLHF技术解决生成模型的核心问题,大大提高类人成熟度

ChatGPT是在GPT3.5大语言模型(LLM,即LargeLanguageModel)的基础上,加入“基于人类反馈的强化学习(RLHF,ReinforcementLearningfromHumanFeedback)”来不断微调(Fine-tune)预训练语言模型,使得LLM模型学会理解不同类型的命令指令,并通过多重标准合理判断基于给定的prompt输入指令,输出的是否为优质信息(这些标准包括:富含信息、内容丰富、对用户有帮助、无害、不包含歧视信息等)。因此,ChatGPT使得人机对话更加人性化,更富有逻辑性,大大提高了AI的类人成熟度。

ChatGPT的技术发展路径:从GPT-1到InstructGPT,数据量与参数量不断增加,模型精度和语言能力提升。1)年,在自然语言处理领域(NLP)刚兴起时,OpenAI就推出了初代GPT,它的运行逻辑是:先通过无标签数据学习生成语言模型,并能够运用于一些与有监督任务无关的NLP任务中。此后再根据特定的下游任务进行有监督的微调,提高其泛化能力。2)年推出的GPT-2扩展了网络参数和数据集,进行多任务学习,可以在数据量足够丰富且模型容量足够大时,通过训练语言模型就能够完成有监督学习的任务。3)对比GPT-2,年推出的GPT-3最显著的特征是庞大的数据量和参数投入,整体训练过程耗资万美元,投入数据量达上万亿,模型参数量达到亿。GPT-3延续了前两代GPT的技术架构,但改变了“大规模数据集预训练+下游数据标注微调”的方式,采用情境学习(in-contextlearning)来提高模型对话输出的性能。GPT-3的规模和语言能力几乎是最强大的。它能在不做微调的情况下,在一些传统的NLP任务中表现得更好,包括实现闭卷问答、模式解析、纯语言建模、机器翻译等;在新的领域,GPT-3将NLP的应用扩展到缺乏足够训练数据的领域,例如在开发程序代码、文章生成和信息检索领域取得了实质性的进展。然而,GPT-3在推理和理解能力上还有较长的路要走,在自然语言推理(NLI)任务中表现不佳。

ChatGPT在InstructGPT模型上做改进,实现更好地遵循用户意图、更少的虚假信息。OpenAI在年3月发布了InstructGPT。该语言模型通过“基于人类反馈的强化学习(RLHF)和监督学习”来提高输出质量。虽然InstructGPT的参数量仅为13亿左右,相比于GPT-3缩小了倍以上;但在遵循指令方面,能够更好地遵循用户意图,将有害的、不真实或者有偏差的信息输出最小化。在优化的模型上,ChatGPT基于InstructGPT进一步改进,在模型结构和训练流程上遵循上述方式,但收集和标注数据的方式上发生了变化,通过采取监督学习的方式让模型学习人类排序的方式。

(二)ChatGPT商业化规划及仍需讨论的问题

ChatGPT成为史上最快达到1亿月活跃用户的应用。ChatGPT在1月达到1亿月活跃用户,平均每天有多万访客。目前OpenAI已推出每月20美元(约合人民币)的ChatGPT用户个人订阅计划,即使在软件的使用高峰时段,订阅用户也可以优先使用AI聊天机器人。

在Gartner发布的年新兴技术成熟度曲线中,生成性AI处于技术萌芽期并加速发展中。Gartner将生成性AI列为年五大影响力技术之一,预测到年生成性AI所创造的数据可占到所有已生产数据的10%。

ChatGPT的能力目前几乎可以涵盖各个自然语言交互领域,例如聊天机器人、对话系统、智能客服、信息检索、主题建模、文本生成和总结、NLP作为服务的翻译、转录、总结等等,未来应用领域将面向蓝海。例如,在聊天机器人领域,目前ChatGPT已经能基本满足用户的提供个性化需求和信息提供服务;在需要智能客服的电商、金融、医疗、教育、政务等垂直领域等,ChatGPT能够结合行业特点和需求,构建自动应答系统,为客户提供快速、准确的问题解答。除此外,在传媒、娱乐、设计和影视领域,ChatGPT能够协助完成一些较低层次的任务,包括文稿生成、采访助手、摘要总结等,或将提高行业的运行效率。

ChatGPT存在的缺陷之一:目前ChatGPT在精准性、真实性、重复率和依赖性等问题上尚待改善。第一、由于技术实现的问题,ChatGPT会不可避免地写出一些似是而非、或者荒谬的答案,这将导致植入虚假数据和误导用户的风险。ChatGPT依然没有完全克服大型语言模型(LLM)的这一常见缺点;第二、在较长的会话中,由于训练数据的偏差和过度修正,ChatGPT会过度强调某些短语或者句子,导致重复性高的问题;第三、ChatGPT的强大能力依赖语料库、数据量的抓取和复杂的训练过程。ChatGPT模型依赖于大规模离线语料进行训练,往往不能充分接受并采用在线提供的即时信息,难以理解对话中提及的因果关系,也无法基于已有信息进行推测,这距离人类举一反三的能力相差较远。

ChatGPT存在的缺陷之二:其应用过程中安全性、伦理约束、权责界定以及知识产权等相关法律问题尚未解决。一方面,由于RLFH并不能完全避免ChatGPT训练库中学习到的不道德或有偏见的回答,也会导致在模糊提示或引导回答的过程中让ChatGPT输出一些有害信息,导致输出结果的安全性降低,有可能产生权责无法界定的法律问题。另一方面,在创造性、创作伦理和知识产权等方面并未形成有效界定。在数据挖掘、大规模计算、统计、多线程工作等数据处理分析领域,人工智能有着人类不可比拟的优势,但是以“创新和感知”为基础的创造过程是机器学习和模型难以训练的。目前ChatGPT能够在用户的引导下快速生成小说、诗歌、散文、编程等需要创造力的内容,或许将对创作者和以版权为基础的行业造成冲击。文本生成的过程是基于数据库内容的学习,这是否会构成对被抓取作品的侵权,ChatGPT生成的文本内容是否具有著作权,是否属于该用户等一系列问题的答案尚不明确。

(三)全球巨头争相追赶,与ChatGPT水平尚存一定差距

国外公司中,谷歌发布的聊天机器人Bard具有与ChatGPT接近的技术水平,可能相差半年左右。年2月6日,GoogleCEO发布了与ChatGPT对标的产品Bard。Bard是基于由Google于两年前就开始的LaMDA(LanguageModelforDialogueApplications,用于对话应用的语言模型)模型的轻量级版本。LaMDA和GPT-3本质上是非常类似的模型,都是使用Transformer架构的大语言模型配以RLHF,已公开的LaMDA最大的版本是亿参数的模型,比GPT-3略少。从谷歌22年发布的LaMDA的论文来看,LaMDA


转载请注明:http://www.180woai.com/qfhqj/8084.html


冀ICP备2021022604号-10

当前时间: