AI大模型类型和原理1.课程内容2. AI大模型简介3.常见AI大模型类别3.1 文本生成大模型3.2 多模态大模型3.2.1原理简介3.3 语音识别模型3.4 语音合成模型3.4.1 原理简介4.AI模型对比总结
了解掌握AI大模型基本知识、AI具身智能玩法中用到的AI大模型类型
Tip
本节课程是纯理论课程,如需快速上手体验功能玩法,可先略过本节课程
AI 大模型,即大规模预训练模型,是大数据、大算力和强算法深度融合的产物。简单来说,它就像是一个经过海量知识 “喂养”、反复训练的智能体,通过对大量数据的学习,掌握数据中的规律和模式,从而具备强大的通用性和泛化能力。这种能力使得 AI 大模型不再局限于单一任务,而是能够像人类一样,灵活应用所学知识,解决多个领域的复杂问题。其借助互联网文本、图像等多源数据,学习数据规律,具备强大泛化能力,能通过迁移学习或提示工程适配多种任务,还可能涌现出训练前未设定的逻辑推理、常识理解等能力。
基于 Transformer 架构,通过在海量文本数据上进行无监督或有监督学习,学习语言的语法、语义和语用规则,从而能够根据输入的提示或上下文生成自然流畅的文本。通过无监督学习进行预训练,适用于文本生成、对话系统等任务;将所有文本任务转换为统一的文本到文本问题,提供了更灵活的框架,可处理翻译、摘要和问答等多种任务。
在内容创作方面,可自动生成文章、新闻、评论等实用文本,提高内容产出效率,还能辅助作者进行创意构思和文本润色
在智能交互领域,可应用于智能客服和聊天机器人,生成自然流畅的回复,提升用户体验
在个性化教学中,能分析题目、提供考点说明、解题思路和结果,还可帮助用户进行语言学习
在机器翻译方面,可实现自动翻译,结合语音类模型,还能实现同声传译、日常字幕生成等。
基于 Transformer 架构(特别是自注意力机制),通过对海量文本数据的无监督 / 半监督学习,建模语言的概率分布与语义关联,实现对自然语言的理解与生成。
预训练逻辑
自回归(AR):如 GPT 系列,通过 “因果语言模型” 预测下一个 token(如 “今天天气→今天天气很”),学习文本的前后依赖关系。
自编码(AE):如 BERT,通过 “掩码语言模型” 预测被遮蔽的 token(如 “今天 [mask] 很晴朗”→“天气”),学习上下文双向语义。
关键技术
注意力机制:动态分配文本中不同词汇的权重,捕捉长距离依赖(如 “前文提到的事件→后文的影响”)。
提示学习(Prompt Tuning):通过模板(如 “请总结以下内容:{文本}”)激活模型的特定能力,适配下游任务。
能力涌现 随着参数规模扩大(如千亿级),模型可能涌现出 逻辑推理、常识理解、少样本学习 等预训练阶段未显式编程的能力。
能够处理多种类型的输入数据,如文本、图像、音频、视频等。通过跨模态学习,理解不同模态数据之间的关系,并将多模态数据整合在一起,以充分利用各模态的信息,构建一个统一的表示空间,使得不同模态的数据能够互相理解和结合,进而执行更复杂和智能的任务。可用于跨模态检索,根据一种模态的数据检索另一种模态的数据;在视觉问答中,模型根据图像内容回答文本问题;还能进行图像描述生成,生成描述图像内容的自然语言文本;以及实现多模态对话,进行涉及多种模态信息的对话,在医疗健康、交通、安防监控等复杂环境中有广泛的应用前景。
通过跨模态对齐与联合建模,学习不同模态数据的统一表征空间,实现模态间的语义关联与协同处理。
对比学习:如 CLIP 模型,将图像与文本的特征向量映射到同一空间,通过 “图像 - 文本对匹配” 训练(如 “狗的图片→文本‘dog’”)。
编码器 - 解码器架构:如 DALL-E,文本编码器提取语义特征,图像解码器生成对应图像(文本→图像)。
融合方式
早期融合:在输入层合并多模态数据(如将文本嵌入与图像像素特征拼接)。
晚期融合:分别处理各模态数据,在决策层融合结果(如先单独分析文本情感与图像色彩,再综合判断)。
将输入的语音信号转换为文字信息。通常基于深度学习算法,先对语音信号进行特征提取,然后将特征输入到神经网络模型中进行训练和识别,模型通过学习大量的语音数据来识别不同的语音模式和对应的文字内容。可协助客服人员迅速记录客户需求和问题,提升服务品质,方便后续查询;可应用于语音搜索,释放双手,适用于车辆导航、移动电话等多种搜索环境;还能将会议对话转化为文本形式,方便梳理和记录会议内容;在人机交互方面,利用语音指令控制智能设施,包括机器人等硬件设施和软件应用。
将语音信号的声学特征 转换为文字序列,基于深度学习实现端到端建模。
特征提取:对语音波形进行预处理(如分帧、加窗),提取梅尔频谱(MFCC)或声学特征向量(如通过 CNN 提取)。
序列建模:使用 循环神经网络(RNN/LSTM) 或 Transformer 编码器 捕捉语音序列的时序依赖(如 “连续音节→词汇”)。
解码映射:通过连接主义时间分类(CTC)或注意力机制,将特征序列映射为文字序列(如声学特征→“你好”)。
将输入的文本转换为语音信号。一般通过训练模型学习文本到语音的映射关系,模型根据输入的文本生成对应的语音特征,再通过语音合成技术将特征转换为可听的语音。广泛应用于语音助手、有声读物、智能客服等领域,为用户提供语音交互服务,使设备能够以自然流畅的语音与用户进行沟通。
将文本语义 转换为自然流畅的语音信号,模拟人类发音的韵律、语调与情感。
深度学习合成:
文本分析:通过 NLP 模型解析文本的语义、词性、情感(如 “今天很开心”→欢快语调)。
声学建模:使用 Tacotron 系列(编码器 - 解码器 + 注意力机制)生成语音的梅尔频谱。
声码器:将梅尔频谱转换为波形信号,如 WaveNet、HiFi-GAN(提升语音自然度)。
| 模型类型 | 输入 | 输出 | 核心技术 | 典型场景 |
|---|---|---|---|---|
| 自然语言大模型 | 文本 | 文本 | Transformer 自注意力 | 写作、对话、翻译 |
| 多模态大模型 | 文本 + 图像 / 音频 | 跨模态内容 | 跨模态对齐、联合编码 | 图文生成、视觉问答 |
| 语音识别模型 | 语音波形 | 文本 | 声学特征提取 + 序列解码 | 会议记录、语音搜索 |
| 语音合成模型 | 文本 | 语音音频 | 文本分析 + 声学建模 + 声码器 | 语音助手、有声内容生产 |