Post on: Aug 8, 2024Last edited: Dec 5, 2024Words 260Read Time 1 min

type
status
date
slug
summary
tags
category
icon
password
跑通Baseline
 
notion image
 
notion image
notion image
notion image
 
Baseline精读

两种 Finetune 范式

  1. 增量预训练微调 (Continue PreTraining)
使用场景:让基座模型学习到一些新知识,如某个垂类领域的常识
  1. 训练数据:文章、书籍、代码等
  1. 指令跟随微调 (Supervised Finetuning)
使用场景:让模型学会对话模板,根据人类指令进行对话
训练数据:高质量的对话、问答数据

LoRA 的优势

  • 可以针对不同的下游任务构建小型 LoRA 模块,从而在共享预训练模型参数基础上有效地切换下游任务。
  • LoRA 使用自适应优化器(Adaptive Optimizer),不需要计算梯度或维护大多数参数的优化器状态,训练更有效、硬件门槛更低。
  • LoRA 使用简单的线性设计,在部署时将可训练矩阵与冻结权重合并,不存在推理延迟。
  • LoRA 与其他方法正交,可以组合。
 

Loading...
Vue3源码分析

🗒️Vue3源码分析


AIGC原理及应用

🗒️AIGC原理及应用