The dataset viewer is not available for this dataset.
Error code: JobManagerCrashedError
Need help to make the dataset viewer work? Make sure to review how to configure the dataset viewer, and open a discussion for direct support.
YAML Metadata Warning:empty or missing yaml metadata in repo card
Check out the documentation for more information.
ASR 诗词纠错系统 — 详细技术文档
基于 ChineseErrorCorrector3-4B (Qwen3-4B) 的 ASR 诗词纠错模型。
当前默认 LoRA 已切换为 ./asr/check/asr_poetry_lora_20260308_191410。
这版模型基于 asr_v4_lite_20260308_164454 训练,在对应 649 条真实评测集上纯生成达到 89.20% 字符准确率、42.84% 句子准确率。
1. 项目概述
1.1 任务定义
ASR 系统在识别诗词古文时会产生大量错误(同音字、近音字、形近字等)。本项目训练纠错模型,将 ASR 错误输出纠正为正确原文。
| ASR 输出(错误) | 纠错输出(正确) | 错误类型 |
|---|---|---|
| 湖月照我影送我至善兮 | 湖月照我影送我至剡溪 | 同音字 |
| 越人与天老 | 越人语天姥 | 同音字+生僻字 |
| 客喜而笑喜盏更酌 | 客喜而笑洗盏更酌 | 同音字 |
| 临近水源便得一山 | 林尽水源便得一山 | 近音字 |
1.2 基座模型
- 名称:ChineseErrorCorrector3-4B(HuggingFace)
- 架构:Qwen3ForCausalLM, hidden_size=2560, 36 layers, ~4B 参数
- 特点:已在大规模中文纠错语料上预训练
- 本地路径:
ChineseErrorCorrector3-4B/
2. 目录结构
asr/
├── README.md # 本文档
├── report/
│ └── asr_poetry_correction_report.tex # LaTeX 实验报告
│
├── ===== 数据生成脚本 (4 个版本迭代) =====
├── prepare_asr_poetry_data.py # v1 基础版
├── prepare_full_asr_data.py # v1 完整版
├── prepare_full_asr_data_v2.py # v2 真实 ASR 混淆
├── prepare_full_asr_data_v3.py # v3 拼音系统 + 混淆融合
├── prepare_full_asr_data_v4.py # v4 古文散文 + 长句 + 负例
│
├── ===== 训练脚本 =====
├── train_asr_poetry_correction.py # LoRA SFT 训练
├── train_full_sft.py # 全量 SFT 训练
│
├── ===== 评估脚本 =====
├── evaluate_model.py # 模型评估 (greedy + beam search)
│
├── ===== Shell 启动脚本 =====
├── run_asr_poetry_sft.sh # LoRA 训练启动
├── run_full_sft.sh # 全量 SFT 启动
├── setup_env.sh # 环境安装
│
├── ===== 数据 =====
├── chinese-poetry/ # 诗词语料库 (2246 JSON)
├── data/ # 真实 ASR 数据 (.rlt)
├── train_data_v3/ # v3 训练数据
├── train_data_v4/ # v4 训练数据 (待生成)
│
├── ===== 模型输出 =====
├── output/ # 模型 checkpoint
├── logs/ # 训练/评估日志
└── ChineseErrorCorrector3-4B/ # 基座模型权重
3. 数据详细分析
3.1 原始数据来源
(1) 真实 ASR 数据
文件:data/checkpoint-epoch-1-data-parts-idx-3-updates-2330000/rec.SRF_shici_202309.txt.rlt
格式为 LAB(标注)/ REC(识别结果)对:
LAB: 湖 月 照 我 影 送 我 至 剡 溪
REC: 湖 月 照 我 影 送 我 至 善 兮
统计:649 个语音对,100% 含有识别错误,直接用作测试集。
(2) 诗词语料库 chinese-poetry
来源:https://github.com/chinese-poetry/chinese-poetry
| 子目录 | 内容 | JSON 文件数 | 特点 |
|---|---|---|---|
| 全唐诗 | 唐代诗歌全集 | 633 | 主要为 5 言/7 言短句 |
| 御定全唐詩 | 繁体唐诗 | 900 | 含注释 |
| 宋词 | 宋代词作 | 25 | 长短句 |
| 元曲 | 元代曲目 | 1 | 含大量长句 |
| 诗经 | 先秦诗歌 | 1 | 四言为主 |
| 楚辞 | 屈原等作品 | 1 | 骚体长句 |
| 论语 | 孔子语录 | 1 | 散文短句 |
| 四书五经 | 孟子/大学/中庸 | 3 | 经典散文 |
| 蒙学 | 古文观止等 13 部 | 13 | 含 222 篇经典散文 |
| 幽梦影 | 清代小品文 | 1 | 散文 |
| 其他 | 曹操诗集、纳兰性德等 | 若干 | 诗词 |
3.2 v3 训练数据分析
基本统计
| 数据集 | 样本数 | 长度范围 | 平均长度 | 平均错误数 |
|---|---|---|---|---|
| 训练集 | 229,694 | [2, 32] | 5.7 字 | 1.7 个 |
| 验证集 | 12,090 | [2, 24] | 5.7 字 | 1.7 个 |
| 测试集 | 649 | [2, 32] | 15.0 字 | 2.4 个 |
句子长度分布(核心问题)
| 长度区间 | 训练集 | 训练占比 | 测试集 | 测试占比 | 差距 |
|---|---|---|---|---|---|
| 2-4 字 | 32,976 | 14.4% | 5 | 0.8% | |
| 5-7 字 | 190,774 | 83.1% | 24 | 3.7% | 训练过剩 |
| 8-10 字 | 4,155 | 1.8% | 127 | 19.6% | 严重不足 |
| 11-15 字 | 1,391 | 0.6% | 202 | 31.1% | 严重不足 |
| 16-20 字 | 297 | 0.1% | 212 | 32.7% | 严重不足 |
| 21-32 字 | 101 | 0.0% | 79 | 12.2% | 严重不足 |
结论:训练集 97.5% 是 2-7 字短句(唐诗宋词单句),但测试集 76% 是 10+ 字长句(古文散文/多句拼接)。
错误数量分布
| 错误数 | 训练集 | 训练占比 | 测试集 | 测试占比 |
|---|---|---|---|---|
| 1 | 105,145 | 45.8% | 286 | 44.1% |
| 2 | 94,720 | 41.2% | 166 | 25.6% |
| 3 | 28,787 | 12.5% | 84 | 12.9% |
| 4+ | 1,042 | 0.5% | 113 | 17.4% |
结论:训练集高错误率(4+)仅 0.5%,测试集为 17.4%。
字符覆盖率
- 训练集不同字符数:7,695
- 测试集不同字符数:1,961
- 测试集未覆盖字符:3 个(
籁、舱、蹂) - 错误对覆盖率:97.8%(1,484/1,517 测试错误已在训练集中出现)
负例分析
- 训练集无错误样本:0 条 (0%)
- 模型从未见过"输入正确→不修改"的场景
训练集 Top-10 错误字符对
| 排名 | 错误→正确 | 出现次数 | 类型 |
|---|---|---|---|
| 1 | 删→山 | 1,201 | 同音 |
| 2 | 哗→花 | 1,101 | 近音 |
| 3 | 氺→水 | 929 | 形近 |
| 4 | 补→不 | 919 | 近音 |
| 5 | 来→來 | 897 | 繁简 |
| 6 | 尚→上 | 867 | 同音 |
| 7 | 云→雲 | 821 | 繁简 |
| 8 | 丘→秋 | 811 | 同音 |
| 9 | 香→相 | 782 | 同音 |
| 10 | 卧→我 | 753 | 近音 |
3.3 v4 数据改进方案
v4 针对上述 3 个关键问题改进:
| 改进 | 方法 | 效果 |
|---|---|---|
| 长句数据 | 唐诗宋词相邻 2-4 句拼接 (~15 万条) | 长句 1.8%→~30% |
| 古文散文 | 古文观止 222 篇 + 孟子 + 论语 + 楚辞等 | 覆盖测试集体裁 |
| 负例 | 10% 正确→正确样本 | 防过度纠正 |
| 错误分布 | 提升 4+ 错误至 ~12% | 匹配测试集 |
4. 代码详细说明
4.1 数据生成脚本 prepare_full_asr_data_v3.py
作用:从诗词语料库生成模拟 ASR 错误的训练数据。
核心类和函数:
| 组件 | 作用 |
|---|---|
PinyinSystem |
构建汉字拼音数据库(~20,000 字),提供同音字/近音字查询 |
ShapeSimilarSystem |
基于预定义的 23 组形近字提供形近字替换 |
ASRErrorSimulator |
融合上述两个系统 + 真实 ASR 混淆,按权重生成错误 |
load_all_poetry() |
遍历 chinese-poetry 目录,提取诗句 |
generate_augmented_data() |
对每个正确句子生成 5 个不同错误变体 |
convert_to_training_format() |
转换为 conversations JSON 格式 |
执行流程:
初始化PinyinSystem → 加载真实混淆(.rlt) → 加载诗词语料
→ 对每条诗句生成5个错误变体 → 去重 → 95/5 划分 → 保存 JSONL
4.2 数据生成脚本 prepare_full_asr_data_v4.py
相比 v3 新增:
| 新函数 | 作用 |
|---|---|
load_classical_prose() |
加载古文观止、孟子、论语、楚辞等古文数据 |
extract_long_clauses() |
按句号分割(不按逗号),提取 8-32 字长分句 |
generate_concatenated_sentences() |
从唐诗中拼接相邻 2-4 句生成长句 |
generate_negative_examples() |
生成正确→正确的负例 |
新增错误数量分布(调整 ERROR_COUNT_DISTRIBUTION):
- 4 个错误:9%→10%
- 5 个错误:5%→7%
- 6-9 个错误:3%→8%
4.3 训练脚本 train_asr_poetry_correction.py
作用:LoRA 微调训练。
核心流程:
args = parse_args()
model = TrainLLM(args) # 加载模型 + 配置 LoRA
model.train_model( # HuggingFace Trainer 训练
train_data=args.train_file,
eval_data=args.dev_file
)
TrainLLM 类(位于 ChineseErrorCorrector/llm/train/train_lora.py):
__init__:加载模型/分词器,配置量化(可选)find_all_linear_names():自动发现所有线性层名称作为 LoRA 目标train_model():配置TrainingArguments→ 构建 LoRA → 加载数据 →Trainer.train()SavePeftModelTrainer:继承Trainer,覆写save_model保存 LoRA adapter
数据处理(ChineseErrorCorrector/utils/llm_dataloader.py):
GptSupervisedDataset:带缓存的数据集类preprocess_function():将 conversations 转换为 input_ids + labels(source 部分标记为IGNORE_INDEX)- 使用 Qwen chat template:
<|im_start|>user\n{query}<|im_end|>\n<|im_start|>assistant\n
4.4 训练脚本 train_full_sft.py
作用:全量(全参数)SFT 微调。
与 LoRA 版本的核心差异:
| 方面 | LoRA 版 | 全量 SFT 版 |
|---|---|---|
| 模型加载 | 加载后包裹 get_peft_model |
直接加载,所有参数可训练 |
| 数据处理 | 依赖 GptSupervisedDataset |
独立实现 FullSFTDataset |
| Trainer | SavePeftModelTrainer(保存 adapter) |
FullModelTrainer(保存完整模型) |
| LR 调度 | linear(框架默认) | cosine(显式设置) |
| 正则化 | 无 weight_decay | weight_decay=0.01 |
| 防过拟合 | 无 | EarlyStoppingCallback |
核心函数说明:
| 函数 | 作用 |
|---|---|
preprocess_function() |
手动构建 Qwen chat template,source 部分 mask 为 IGNORE_INDEX |
FullSFTDataset.__init__() |
加载 JSONL → tokenize → 过滤空标签 |
FullModelTrainer.save_model() |
使用 save_pretrained 保存完整模型权重(safetensors 格式) |
4.5 评估脚本 evaluate_model.py
核心函数:
| 函数 | 作用 |
|---|---|
load_model() |
加载基座模型,可选加载 LoRA 权重并 merge |
predict() |
单条推理,支持 greedy (num_beams=1) 和 beam search |
calculate_metrics() |
计算字符级/句子级准确率 |
推理流程:
apply_chat_template → tokenize → model.generate → decode → strip
4.6 Shell 脚本
**run_asr_poetry_sft.sh**:LoRA 训练完整流水线
环境配置 → 检查数据/模型 → 训练 → 评估 → 汇总
**run_full_sft.sh**:全量 SFT 训练流水线
环境配置 → 检查数据(优先v4,回退v3) → 训练 → 评估 → 汇总
**run_eval_retrieval_cpu.sh**:检索增强评测流水线
环境配置 → 读取/构建原文检索源 → doc_span 局部抽取 → 候选重排 → 检索/生成结合评估
5. 实验结果
5.1 实验历史
| # | 日期 | 数据 | 方法 | Epochs | LR | 字符准确率 | 句子准确率 |
|---|---|---|---|---|---|---|---|
| 1 | 02-02 | v1 | LoRA r=16 | 3 | 2e-5 | 93.77% | 71.49% |
| 2 | 02-02 | v3 | LoRA r=16 | 3 | 2e-5 | ~95% | ~80% |
| 3 | 02-28 | v3 | LoRA r=32 | 6 | 5e-5 | 98.32% | 93.99% |
| 4 | 02-28 | v3 | LoRA r=32 | 6 | 5e-5 | 98.60% | 95.38% |
| 5 | 03-08 | v4_lite | LoRA r=32 | 6 | 5e-5 | 89.20% | 42.84% |
5.2 最佳模型错误分析(30 个错误案例)
| 类别 | 数量 | 典型案例 |
|---|---|---|
| 严重损坏 (5+ diff) | 16 | "负载音优闭结成一带下"→原文差异过大 |
| 同音字歧义 (1-2 diff) | 10 | 君/军, 吴/吾, 临/林, 瞳/曈 |
| 中等错误 (3-4 diff) | 4 | 古文词汇理解不足 |
5.3 检索增强专项进展(2026-03-09)
- 专项总结文档:
report/retrieval_doc_span_task_summary_20260309.md - 当前最新、最可信的可比检索增强结果已更新为
20260309_011231:- 字符准确率:
86.14% - 句子准确率:
48.84%(317/649) retrieval_rerank精度:139/200 = 69.50%
- 字符准确率:
- 相比旧基线
20260309_000946(30.82%),这一轮句子准确率提升了 18.02 个点,正确句数增加 117 条。 - 当前默认 LoRA 已切到
./asr/check/asr_poetry_lora_20260308_191410;它来自asr_v4_lite_20260308_164454,纯生成结果为89.20% / 42.84%,而 retrieval 版本已经把总句准继续拉到48.84%。 - 新结果的策略分布为:
retrieval_rerank=200、fallback_generate=383、generate_no_local_span=65、generate_no_candidate=1;对应精度分别为69.50%、39.16%、41.54%、100%。 - 这说明当前收益主要来自两点:更强的默认生成模型,以及在保持较高 precision 的前提下显著扩大了 retrieval 接管覆盖;但
generate_no_local_span仍有65条,说明“拿不到可接管 span”的问题还没有真正解决。 - 当前默认检索顺序已调整为“小补库 ->
classical_modern_originals.jsonl->chinese-poetry”,且ASR_RETRIEVAL_MAX_CANDIDATES已上调到1000000;这样classical_modern_originals.jsonl会优先进入实际索引,不再被旧顺序直接截断在后面。 20260309_000946以及旧文档里33.13% ~ 34.82%的离线投影,现在都只保留为旧模型口径下的历史参考,不再代表当前默认配置上限。
6. 使用方法
# 1. 生成 v4 数据
python prepare_full_asr_data_v4.py
# 2. 训练(二选一)
bash run_asr_poetry_sft.sh # LoRA 微调
bash run_full_sft.sh # 全量 SFT
# 3. 评估
python evaluate_model.py \
--base_model ChineseErrorCorrector3-4B \
--lora_path ./asr/check/asr_poetry_lora_20260308_191410 \
--test_file ./asr/log1/asr_v4_lite_20260308_164454/test_real_asr.jsonl \
--num_beams 4
# 4. 检索增强评估(脚本默认 LoRA 已切到 20260308_191410)
bash run_eval_retrieval_cpu.sh
- Downloads last month
- 13,632