-
AIGC:人工智能生成内容,通过AI应用自动生成文字、图片、语音、视频等内容。如GPT可以生成文本内容。
-
自然语言处理:研究实现人与计算机之间用自然语言有效通信的理论和方法。
-
机器学习:使用数据和经验优化计算机程序性能。
-
深度神经网络:是一种机器学习技术,让计算机像大脑神经元工作。
-
Transformer架构:由Google提出的神经网络架构,是GPT大模型的基础,让文本训练更容易,实现质的飞跃。ChatGPT中的T代表Transformer。
-
RLHF:基于人类反馈的强化学习,成功应用于ChatGPT,未来发展快的领域。它通过人类反馈加速语言模型训练,提高模型准确性和自然度。
-
多模态:利用多种数据模态如语音、图像进行联合处理,使应用程序在理解和响应用户时更准确、全面、自然,可以输出多种形式内容。
-
GPT-3:OpenAI在2020年6月发布,用于文本生成、机器翻译、文档撰写等。GPT-3有150亿参数,代表大型语言模型发展。
-
GPT-3.5:在GPT-3的基础上进一步微调、数据增强得到,在某些方面有优于GPT-3的表现。与中文模型相结合,提高了ChatGPT的性能。
-
GPT-4:OpenAI在2022年3月发布,是一个多模态的大语言模型,具有生成文章、总结文章、回答问题的能力,以及其他NLU任务的能力。
© 版权声明
文章版权归作者所有,未经允许请勿转载。