任务详情

管理员

客服对话微调-v1

已完成

使用客服对话数据集对Qwen进行微调,提升客服场景的对话能力

模型测试

基础模型

Qwen2.5-7B-Instruct

微调方法

LoRA

训练数据量

45,000

训练耗时

252分钟

基本信息

任务ID
1
模型类型
LLM
数据集
客服对话数据集
训练集/验证集
45,000 / 5,000
创建人
admin
创建时间
2025-12-20 10:30:00
开始时间
2025-12-20 10:32:40
完成时间
2025-12-20 14:45:00

训练配置

训练轮数
3
批大小
8 x 4
学习率
0.0002
Warmup
3%
LoRA Rank
8
LoRA Alpha
16
LoRA Dropout
0.05
序列长度
2048
优化器
AdamW
精度
bf16

训练指标

训练 Loss
0.2341
验证 Loss
0.2567
当前学习率
0.00e+0
每轮耗时
1h 23m

输出文件

adapter_model.safetensors
33.4 MB
adapter_config.json
1.2 KB
training_args.json
2.8 KB
trainer_state.json
156 KB

目标模块

q_projk_projv_projo_proj
[2025-12-20 10:30:15] 开始加载模型 Qwen2.5-7B-Instruct...
[2025-12-20 10:31:42] 模型加载完成,参数量: 7.62B
[2025-12-20 10:31:45] 应用 LoRA 配置: rank=8, alpha=16
[2025-12-20 10:31:48] 可训练参数: 4,194,304 (0.055%)
[2025-12-20 10:32:00] 开始加载数据集...
[2025-12-20 10:32:35] 数据集加载完成: 训练集 45,000 条, 验证集 5,000 条
[2025-12-20 10:32:40] 开始训练...
[2025-12-20 10:32:40] Epoch 1/3
[2025-12-20 11:55:20] Epoch 1 完成 - train_loss: 0.4521, val_loss: 0.4123
[2025-12-20 11:55:25] Epoch 2/3
[2025-12-20 13:18:45] Epoch 2 完成 - train_loss: 0.3012, val_loss: 0.2891
[2025-12-20 13:18:50] Epoch 3/3
[2025-12-20 14:42:30] Epoch 3 完成 - train_loss: 0.2341, val_loss: 0.2567
[2025-12-20 14:42:35] 保存最佳模型检查点...
[2025-12-20 14:45:00] 训练完成!总耗时: 4h 15m